Corporate Finance, DeFi, Blockchain, Web3 News
Corporate Finance, DeFi, Blockchain News

Intelligence artificielle: derrière le buzz, les chercheurs travaillent

La recherche sur l’intelligence artificielle (IA) a fait l'objet d'avancées majeures ces dernières années. De simples légendes de laboratoire sont devenues des produits de masse qui ont envahi le marché. Certaines technologies informatiques sont désormais suffisamment sophistiquées pour remplacer l'esprit humain et résoudre certains défis pratiques du quotidien. Où en est aujourd'hui l'intelligence artificielle? Que peut-on en attendre ?


Intelligence artificielle: derrière le buzz, les chercheurs travaillent
SJTU ParisTech Review – La victoire d’AlphaGo a attiré l’attention du grand public et renouvelé son intérêt pour la question de l’intelligence artificielle. Que pensez-vous de cette vogue?

Qin Zengchang –
Sans même parler des effets de mode et des débats qu’on a pu lire dans les journaux, j’observerai que l’intelligence artificielle n’a pas toujours recueilli des avis positifs, et les investissements dont elle a pu bénéficier ont connu des hauts et des bas.

Aujourd’hui il existe une intense activité académique sur le sujet, et cette activité va de pair avec un boom du secteur. Dans les pays occidentaux, il existe un dialogue permanent entre la recherche académique et le monde industriel. Or les applications relevant de l’intelligence artificielle, comme tous les développements issus de l’informatique, sont beaucoup plus rapides à commercialiser que d’autres technologies. Les articles scientifiques publiés l’an dernier, ainsi, ont toutes les chances de se convertir en missions de recherche pour les étudiants des prestigieuses universités californiennes liées à la Silicon Valley, et ces missions peuvent conduire rapidement à des produits d’utilisation courante. Cette rapidité est une caractéristique majeure d’un secteur où tous les acteurs sont particulièrement réactifs.

L’explosion tous azimuts des recherches en IA traduit aussi l’intégration d’autre disciplines, parfois pour mieux comprendre les mécanismes de l’intelligence et de la pensée, parfois pour concevoir des machines dotées d’IA. La recherche en intelligence artificielle a longtemps été conduite par les spécialistes de l’informatique. Mais aujourd’hui, elle intègre de plus en plus des disciplines telles que la psychologie ou la neurologie. Cette dernière, qui au-delà des pathologies du système nerveux s’intéresse au fonctionnement de la conscience, est une discipline qui s’article directement à l’IA, comme en témoigne une abondante littérature scientifique. Récemment encore, une publication portait sur la façon dont le cerveau humain parvient à localiser des lieux, révélant que certaines cellules remplissent une fonction similaire à un système GPS. Ce type de recherche et les travaux sur l’intelligence artificielle ont des aspects en commun.

Si vous souhaitez approfondir le développement de ces sous-domaines de recherches, vous pouvez parcourir les articles soumis à l’International Joint Conference on Artificial Intelligence, qui aborde le traitement du langage naturel, l’identification de l’image, la représentation des connaissances, et les systèmes multi-agents.

Quelles sont, à ce jour, les études de ces sous-domaines les plus largement exploitées ?

Celles qui ont fait l’objet du plus grand intérêt sont le traitement des images (ou visualisation informatisée), la reconnaissance vocale et le traitement du langage naturel. Ce sont des technologies fréquemment utilisées dans les échanges homme-machine et les fonctions de recherche (search). La recherche au sens de search est en fait l’exploitation et le traitement et le traitement d’un grand nombre de textes, et maintenant d’images et de vidéos. D’autres développements dans des domaines comme la voix, les empreintes digitales et palmaires, et la reconnaissance biologique sont en plein essor également.

Quelle est la relation entre ces sous-domaines et le machine learning dont parlent les médias ?

Le machine learning est lui-même un sous-domaine de l’IA. Il augmente l’efficacité du calcul en intégrant dans la « formation » les données à traiter, dans le but d’« enseigner » aux machines à apprendre et à généraliser. Peu à peu, cet apprentissage machine a grandi pour devenir le sous-domaine le plus abouti de l’IA, capable d’impacter tous les aspects de la technologie IA. Le traitement du langage naturel et la reconnaissance d’images s’appuient l’un et l’autre sur du machine learning. Le développement de la technologie d’apprentissage automatique a renforcé la capacité des machines à développer de nouvelles compétences, et il est aussi employé dans d’autres applications.

De combien de méthodes d’apprentissage différentes disposent les machines ?

Le plus commun est appelé l’apprentissage supervisé. Par exemple, la machine est pourvue d’une base de données contenant des informations telles que «hauteur», «poids», «couleur des cheveux» et plus. Chaque groupe de données est livré avec une étiquette telle que «garçon» ou «fille». La machine aura alors pour tâche de construire un modèle qui relie ces données aux étiquettes. Grâce aux nouvelles méthodes de calcul issues de ce modèle, la machine sera en mesure de déterminer le sexe de cette personne en fonction de sa taille et de son poids. C’est ce qu’on appelle l’apprentissage supervisé.

Il y a aussi l’apprentissage non-supervisé. La machine est conçue pour catégoriser des données, sans disposer initialement d’aucune spécification de type «garçon» ou «fille». Elle doit également être capable de trier les données présentant des caractéristiques similaires sur la base de certaines règles. Si une nouvelle série de données est introduite comme mesure, elle sera triée en trois types: les enfants, les adolescents et les personnes âgées (la machine elle-même ne perçoit pas le sens réel de cette activité, le dépistage des données étant établi sur la base de certaines caractéristiques). Ce type d’apprentissage, qui ne nécessite pas d’étiquetage préalable, est appelé apprentissage non-supervisé.

L’apprentissage utilisé par AlphaGo est appelé apprentissage par renforcement. Une action donnée de la machine n’engendrera pas de réaction instantanée. Au terme d’une série d’actions, un processus est conduit le long d’une route désignée et fournit une rétroaction positive ou négative, correspondant à une valeur de type récompense ou punition. Cela reprend les principes d’un jeu de labyrinthe. La première étape est sélectionnée de façon aléatoire. Au terme d’une série de ces choix aléatoires, soit on arrive dans une impasse, soit on trouve la sortie. La machine va alors enregistrer et tracer l’ensemble du processus pour choisir (apprendre) le bon modèle (calcul). C’est ce qu’on appelle l’apprentissage par renforcement.

Un facteur clé pour améliorer l’efficacité de l’apprentissage de la machine est la quantité de données sur lesquelles on s’appuie. Pourrait-on envisager qu’à l’avenir, le machine learning (ou l’IA) puisse contourner sa dépendance aux données et être directement réalisé au moyen d’une simulation du cerveau humain ?

Je ne suis pas sûr de pouvoir répondre à votre question. Mais AlphaGo par exemple, dispose désormais d’une vaste zone d’espace de recherche et a besoin de plus d’expérience humaine pour réduire cet espace de façon ordonnée.

Par exemple, pour trouver une balle de pingpong sur un terrain de basket, on procèdera par recherche à l’aveugle, c’est-à-dire centimètre par centimètre. Cependant, après avoir intégré certaines informations, par exemple la zone où les balles sont le plus souvent placées, la zone où les joueurs de pingpong se trouvent être actifs et jusqu’où la balle peut rouler sur le sol, alors il sera plus facile de la trouver. Les données viennent alors en support, avec des réponses et des solutions. Sans données ni informations, trouver une petite balle dans un si grand espace nécessiterait beaucoup plus de temps (ou de calculs). Il faut donc définir des limites permettant de circonscrire une zone plus plausible.

AlphaGo est devenu une star. Le définiriez-vous comme une percée technologique majeure ?

C’est vrai qu’il a fait marquer des points à son secteur mais personnellement, je ne pense pas qu’il s’agisse d’une percée technologique majeure en termes d’intelligence artificielle. C’est vrai qu’une machine capable de jouer au jeu de go fait appel à la technologie la plus élaborée dont on puisse disposer aujourd’hui. Mais peut-on dire pour autant qu’on pourra lui trouver des applications dans d’autres domaines? Peut-être dans une certaine mesure, mais il me semble prématuré de dire qu’il représente une avancée significative pour l’ensemble du secteur.

On parle souvent de « puissance de calcul » ou de « capacité de stockage » pour évaluer le développement de la technologie informatique. Quelle mesure pourrait faire autorité pour déterminer la maturité technologique en intelligence artificielle ?

Je ne pense pas qu’il existe une mesure standard applicable à toutes les avancées. Nous verrons bientôt de nouvelles inventions apparaître, différentes par nature, chacune dans son domaine respectif. Dans l’avenir, l’intelligence artificielle dépassera les êtres humains dans toutes sortes de champs de compétences. Le développement d’une technologie informatique pourrait donc être évalué par sa capacité à surpasser les êtres humains. Pour prendre un exemple, les bibliothèques sont désormais, et depuis longtemps, considérées comme obsolètes et peuvent être facilement remplacées par une base de données simple. Mais l’avènement de l’internet a rendu à son tour les bases de données obsolètes et a nécessité le développement de nouvelles compétences informatiques. Les êtres humains sont désormais incapables d’égaler ces compétences. Un autre exemple est la sécurisation du système bancaire. Il devient impossible de s’appuyer uniquement sur l’intervention humaine pour détecter la fraude à la carte de crédit. Le seul recours fonctionnel est de concevoir une technologie informatique qui permette de suivre les changements de données, afin de concevoir les contours d’un modèle par défaut, à partir duquel les transactions anormales sont détectées. La capacité de la machine a dépassé celle de l’homme il y a bien longtemps maintenant. Les technologies de reconnaissance d’image ou de pilotage automatique ne sont pas encore à ce niveau de développement, mais elles devraient bientôt rattraper cet écart. La capacité des êtres humains à résoudre des problèmes sera alors mise au défi, et sur plusieurs fronts.

Le développement de l’intelligence artificielle est divisé en plusieurs niveaux, tels que l’IA faible, l’IA forte et la super IA. Ces appellations correspondent-elles à une réalité scientifique ?

Elles relèvent surtout d’une utilisation un peu folklorique visant à faciliter la compréhension du grand public. Elles ne proviennent pas d’une définition scientifique. Vous ne trouverez aucun séminaire portant sur l’«IA forte» ou l’«AI faible».

On s’attend à un nouvel engouement pour l’IA. À votre avis, combien de temps pourrait-il durer? Peut-on envisager qu’il soit rapidement suivi d’un désintérêt pour le sujet ?

Un désintérêt est inévitable. Je verrais bien la tendance se dissoudre progressivement, ce qui est aussi dans l’ordre des choses. Rien ne peut indéfiniment tenir le haut du pavé. Il y aura donc nécessairement des hauts et des bas. Mais si l’on garde une vision globale, l’intelligence artificielle, au cours de la désormais longue histoire de son développement, n’a cessé de progresser, y compris en termes de formation de nouveaux talents, d’intérêt du public et de place au sein de la société.

Nous assistons à de nombreux débats sur la théorie de la singularité. Ceux qui y croient disent que l’intelligence artificielle connaîtra une croissance explosive au cours des prochaines décennies et repoussera les limites de la technologie pour finalement surpasser la sagesse humaine. On perçoit une certaine inquiétude du grand public. Quel est votre avis sur cette question ?

Si j’en juge par mon entourage, je ne sens pas de panique particulière au sein de la communauté des chercheurs en IA. Cette crainte puise son origine dans une forme d’ignorance, car moins on en sait, plus on est susceptible d’avoir peur. Pour prendre un exemple qui pourrait sembler un peu décalé, nous avons tous peur du SIDA, pourtant les médecins ne sont pas réticents à avoir des contacts avec leurs patients atteints du SIDA, parce qu’ils connaissent bien la maladie et savent à quoi pourrait ressembler le pire des scénarios. Ignorer l’essentiel d’une situation ouvre les vannes de l’imagination et suscite naturellement de l’appréhension.

Ce qui inquiète les gens, c’est l’idée que les machines disposent un jour d’une capacité à prendre librement des décisions. Jusqu’à présent, aucune preuve scientifique ne peut soutenir cette idée. Même la volonté et la liberté des êtres humains semblent être une énigme, alors de là à envisager celles des machines… Les scientifiques à la pointe de la recherche en intelligence artificielle sont très conscients tant du statu quo qui existe, que des risques maîtrisables liés à leur science. La réalité est loin de ce que le public peut parfois imaginer.

Chaque technologie a son revers de médaille. L’intelligence artificielle a-t-elle, elle aussi, son côté obscur ?

Je pense que le problème fondamental est de savoir comment les êtres humains veulent déployer cette technologie. Pour exemple, un robot peut sauver ou tuer, selon l’ordre qu’il reçoit. Il suit sa feuille de route et ne se soucie ni de l’objet de son intervention, ni des conséquences de son action. Si l’on reste sur cette ligne de pensée, un robot devient alors une arme, comme par exemple une bombe atomique. Mais la technologie IA ne fait que l’automatiser davantage. Donc, il me semble que la clé serait plutôt de savoir qui est aux commandes et quelle utilisation il compte en faire.

Contrairement à la bombe nucléaire ou à un projet d’arme atomique, l’intelligence artificielle est une technologie qui peut être développée par n’importe qui, ce qui relève du défi en termes de règlementation. La technologie du pilotage automatique en est une illustration.

Les technologies et les objets émergents sont destinés à remettre régulièrement en cause les normes et la législation de l’ensemble du secteur. Cela me rappelle le piratage de données personnelles organisé grâce à des robots de réseau il y a des années. De qui était-ce la faute? Du robot ou de l’homme? Ce n’est pas la technologie qui ira en prison. Dans le cas précité, c’était en fait l’homme qui avait détourné cette technologie pour en faire un mauvais usage. La prévention du risque devrait être appliquée aux personnes, et pas seulement au développement de la technologie. De nouvelles législations et régulations se mettront en place progressivement au fur et à mesure des évolutions du comportement humain.

Vous avez évoqué les pays occidentaux, où les échanges entre la recherche et l’industrie sont fructueux. Qu’en est-il de la Chine? Où en êtes-vous en termes de répartition et de formation des talents ?

En Chine, les talents de l’intelligence artificielle se regroupent en deux catégories. La première est issue des universités de premier plan et des institutions de recherche. Mais la communauté la plus importante provient des firmes technologiques. C’est une configuration proche de celle que nous voyons dans les pays occidentaux. Je crois que l’institut de conception mis en place par Microsoft il y a quelques années en Chine a joué un rôle plus que déterminant pour faire revenir des talents de l’étranger et faire émerger une expertise locale. Avec l’avènement d’Internet en Chine, les grandes entreprises comme Baidu, Alibaba et Tencent ont attiré beaucoup de jeunes cerveaux prometteurs qui sont directement ou indirectement sensibilisés aux technologies IA. Elles se sont ouvertes à un ensemble de théories pertinentes en lien avec l’intelligence artificielle et ont désormais un impact non négligeable sur la société.

Les majors de promotion de Stanford ou de Berkeley recevront des offres provenant des meilleures entreprises dès l’obtention de leur diplôme. Ces emplois particulièrement bien payés encourageront plus de gens à étudier et à maîtriser une telle technologie. Quand j’enseignais à Berkeley, beaucoup d’étudiants qui n’avaient pas ce niveau ont montré un vif intérêt pour l’IA. Que ce soit par attirance pour le côté branché de ce que représente cette forme de technologie, ou par simple envie d’explorer de nouvelles pistes professionnelles, j’ai pu observer une hausse du nombre d’étudiants intéressés par la discipline.

On a vu émerger un grand nombre de start-up spécialisées dans l’intelligence artificielle au cours des dernières années, grâce à la sensibilisation du grand public et du marché. Pensez-vous que le marché sera dominé par de grands acteurs comme Google ou Baidu, ou que tout le monde y trouvera son compte, quel que soit sa taille ?

Avant de devenir la multinationale que l’on connaît, l’entreprise Google a elle aussi commencé en tant que start-up. Les grandes entreprises, en raison de l’importance de leurs ressources, sont sûres d’occuper leur position de leader sur le marché. Mais les petites entreprises se voient offrir elles aussi de réelles opportunités de croissance, qui peuvent contribuer à leur développement si elles savent les saisir. Bien sûr, un processus d’élimination – généré par des mécanismes de concurrence – aura aussi lieu. Mais il est encore trop tôt pour se prononcer.

On a pu assister à toutes sortes de débats sur les tendances de l’IA et sur leur développement rapide. On peut dire qu’ils ont, dans une certaine mesure, facilité la recherche et contribué à l’application de ces technologies. Il y a deux choses auxquelles les entreprises doivent faire attention, qu’elles soient grandes ou petites. Tout d’abord, éviter toute poursuite de produits irréalistes qui feraient appel à des technologies futuristes. Et éviter les interprétations erronées de la demande du marché, voire d’une quasi-demande. Le marché pourrait ne pas avoir besoin des produits qu’une entreprise croit pourtant indispensables.

Selon vous, quels changements significatifs l’intelligence artificielle pourra-t-elle apporter dans la vie des gens à court terme ?

Je pense personnellement que l’intelligence artificielle va commencer à explorer de nouvelles pistes de travail, notamment pour faciliter le jugement. La marge d’amélioration reste énorme. Grâce aux données de masse et à l’intégration en multi-plateforme, le processus de prise de décision peut être optimisé. Par exemple, un médecin ne peut traiter qu’un nombre limité de dossiers médicaux. Prenons le cas d’un jeune médecin : comment procèdera-t-il s’il doit faire face à un cas nouveau pour lui, et doit par exemple interpréter une imagerie médicale dans le cadre de l’établissement d’un diagnostic de cancer? Les technologies de l’information pourraient lui permettre de recueillir et d’intégrer tous les cas de cancer similaires à travers le pays ou même dans le monde entier – par reconnaissance automatique des caractéristiques de cas antérieurs similaires – et l’assisteraient dans son jugement, lui permettant ainsi d’accéder à une évaluation précise de la nature et de la gravité de la maladie.

QIN Zengchang / Directeur, Intelligent Computing and Machine Learning Lab, Beihang University

Note des éditeurs. Cet article est paru à l’origine dans notre édition chinoise, publiée conjointement avec l’université Jiaotong de Shanghai, SJTU ParisTech Review.

Ce contenu est issu de ParisTech Review où il a été publié à l’origine sous le titre " Intelligence artificielle: derrière le buzz, les chercheurs travaillent ".
Nous vous invitons à vous abonner gratuitement à ParisTech Review.

Les médias du groupe Finyear


Vendredi 27 Mai 2016




OFFRES D'EMPLOI


OFFRES DE STAGES


NOMINATIONS


DERNIERES ACTUALITES


POPULAIRES