Le mythe de l’Intelligence Artificielle est-il déchu ?
Difficile de se remémorer la date à partir de laquelle l’IA (Intelligence Artificielle) s’est envolée. Galvaudée, travestie, usurpée, le moins que l’on puisse dire, c’est que l’IA a suscité autant d’espoirs que de désillusions. Après toutes ces années, peut-on encore croire en l’intelligence artificielle et ses applications ? A-t-on seulement convenu d’une définition commune ? Est-celle au bout du compte une menace plus qu’un progrès ? L’heure des comptes vient de sonner. Une définition de l’intelligence artificielle et du machine learning Il existe plusieurs écoles et aucune définition n’a trouvé de parfait consensus. Pour ma part, j’ai tendance à croire que l’IA peut se définir comme un ensemble de sciences et techniques visant à concevoir des machines (incluant les matériels et logiciels) autonomes dotées de capacité d’apprentissage et de raisonnement analogues à celles des humains. Elle repose en particulier sur le big data et le machine learning. Autant le big data est bien