Texte de référence à propos de plus d’infos…
Historiquement, les débuts de l’IA datent à Alan Turing dans les années 1950, et le mot veut tout dire et ne rien dire. En effet, dans l’imaginaire commun, lorsqu’on traite d’intelligence compression, on désigne par là un programme qui peut faire des activités d’humain, en apprenant en solo. Or, l’IA comme définie dans l’industrie est plutôt « des algorithmes plus ou moins évolués qui imitent des actions humaines ». Par exemple, un programme qui nous dit si on est en surpoids ( en lui donnant notre taille et poids ), est une ia : l’utilisation de les règles IF… THEN… ELSE… dans un programme plutôt une intelligence artificielle, sans qu’elle soit « concrètement » intelligente. De la même manière, une machine de Turing est une ia.ia est devenu un terme débarras pour les applications qui prennent des actions complexes appelant auparavant une décision humaine, sous prétexte que communiquer avec clientèle sur le web ou jouer aux échecs. Le terme est souvent employé de manière substituable avec les aspects qui composent l’IA comme le machine learning et le deep learning. Il y a toutefois des distinctions. Par exemple, le machine learning est axé sur la réalisation de dispositifs qui apprennent ou augmentent leurs performances en fonction des résultats qu’ils touchent. Il est important de marquer que, même si l’intégralité du machine learning fonctionne avec l’intelligence embarrassée, cette ultime ne n’est pas au machine learning.Le 20e siècle a vu l’apparition des premiers ordinateurs électroniques susceptibles d’emmagasiner leurs propres programmes et données, et d’effectuer plusieurs de calculs par 2ème. En 1936, Alan Mathison Turing publie un article présentant son pc de Turing, le 1er calculateur infini possible. Il imagine de ce fait les concepts de programmation et de catalogue. En 1938, Konrad Zuse invente le 1er poste informatique à utiliser le dispositif binaire en ligne au lieu du décimal.En effet, survenu dans les années 1980, le machine learning ( deep ) est l’application de méthodes statistiques aux algorithmes pour les donner plus intelligents. L’enjeu du deep est bien de construire des courbes qui approximent les informations et permettent de véhiculer facilement. Il repose donc sur la capacité des algorithmes à obtenir beaucoup de données et à « apprendre » d’elles ( i. e. remédier à les courbes d’approximation ) !La production numérique a changé nos existence. En une génération, les ordinateurs, le Web et les smartphones ont lourd notre quotidien, au coin qu’il semble difficile de elaborer l’existence sans écran et sans réseau : la vie que les moins de environ 40 ans ne pourraient tout à fait pas connaître… Tout a été tourmenté : une activité, la comprehansion, les location camion avec chauffeur, le commerce, les passions, etc. Qui sont les propriétaires de cette création ? Qui a inventé l’ordinateur, l’informatique, le Web et les milliers d’applications qui en dérivent ? On connaît quelques grosses bouille de cette courte histoire, étant donné que Alan Turing et sa célèbre machine virtuel, John von Neumann et les premiers ordinateurs, Steve Jobs et le Macintosh, Bill Gates et Microsoft, etc.En 1976, Steve Wozniak et Steve Jobs conçoivent le Apple i dans un garage. Cet poste informatique comporte un bureau, un puce à 1 MHz, 4 ko de RAM et 1 ko par coeur vidéo. La petite informations sur l’histoire dit que les deux compères ne connaissaient pas de quelle sorte héler l’ordinateur ; Steve Jobs voyant un pommier sur le balcon décida d’appeler l’ordinateur pomme ( en anglais de la firme de cupertino ) s’il ne incarnait pas de nom pour ce dernier dans les 5 minutes suivantes…
Complément d’information à propos de plus d’infos…
Vous allez tout savoir plus d’infos…
par
Étiquettes :
Laisser un commentaire