La vraie limite à l’Intelligence Artificielle n’est pas algorithmique, mais matérielle.

Ce n’est pas moi qui le dis, mais des chercheurs en informatique rattachés au Massachusetts Institute of Technology.

Dans une étude publiée en 2020, cette équipe de chercheurs explique comment les futurs développements de l’IA seront tributaires des avancées en informatique conventionnelle, et en particulier du rapport puissance/consommation des futurs processeurs.

Cette étude compare les avancées récentes permises par les algorithmes de Deep Learning au coût énergétique nécessaire à l’entraînement de ces algorithmes.

Si les performances des nouveaux algorithmes sont folles, à la fois en analyse d’images, de sons…


L’Intelligence Artificielle n’est jamais neutre.

C’est une évidence pour beaucoup, mais c’est un point qu’il est souvent bon de rappeler.

Les algorithmes de traitement du langage, et notamment ceux de NLG (Natural Language Generation) sont entraînés sur des jeux de données, publics ou privés, qui sont eux-mêmes biaisés.

Le biais peut intervenir lors de la conception du dataset, en raison des choix fait par les concepteurs, ou dans les données elles-mêmes, en particulier s’il s’agit d’extraits de textes pré-existants.

Partant de ce constat, des chercheurs en IA de Amazon et de UC Santa Barbara ont publié il y a quelques…


Comment se battre contre un ennemi qui n’existe pas encore ?

C’est tout le problème de l’épidémiologie moderne, qui vise à prévoir l’apparition et les conséquences de nouvelles épidémies, consécutives à des virus qui n’existent pas aujourd’hui.

L’une des façons d’aborder le sujet serait de réaliser un traitement massif en temps réel de nombreuses données au niveau mondial, pour arriver à identifier les signaux faibles et réagir avant que l’épidémie ne se soit développée.

Ça paraît impossible, mais c’est exactement ce que propose de faire Microsoft.

Dans un article de son blog « Innovation Stories », Microsoft décrit un système…


Et si la traduction automatique appauvrissait le langage ?

C’est un lieu commun, qui est rabâché depuis que la traduction automatique existe, mais qui pourrait en fait avoir un fond de vérité.

Le problème de la notion d’appauvrissement est qu’elle est difficile à quantifier, car il faudrait pouvoir mesurer la déperdition de qualité du langage sur une traduction donnée…

… et c’est justement ce qu’on fait des chercheurs en Intelligence Artificielle de l’université de Tilburg et de l’université du Maryland.

Ces chercheurs ont créé un corpus de textes et de leurs traductions réalisées par différentes méthodes (Transformers, réseaux de neurones…


Et si une Intelligence Artificielle était chargée de suivre votre santé ?

L’utilisation d’algorithmes pour assister les médecins en milieu hospitalier n’est pas encore une réalité, mais certains hôpitaux ont déjà sauté le pas.

Ainsi, l’hôpital Parkland de Dallas utilise depuis 2019 des modèles d’IA prédictive pour assister les médecins sur l’évolution de santé de certains patients, notamment en orthopédie.

Si le gain d’efficacité est prometteur, cela suppose que le modèle utilisé soit pertinent, pour ne pas faire n’importe quoi, mais aussi le moins biaisé possible.

C’est l’objet d’une étude publiée par des chercheurs de USC Los Angeles, qui démontre…


S’il y a une invention qui est devenue tellement présente qu’elle s’est faite oublier, c’est bien le correcteur automatique.

Les correcteurs sont des programmes rudimentaires, conçus dans les années 1990 pour aider à l’utilisation du traitement de texte.

S’ils sont désormais omniprésents, ils n’ont en fait que très peu évolués depuis près de 30 ans.

Le principe général est toujours le même : comparer les mots écrits par l’utilisateur à une base de données, pour identifier les erreurs.

Dans un nouvel article, Microsoft présente le futur de la correction automatique, à travers un traitement du langage dopé à l’Intelligence Artificielle.


Le succès de Netflix est dû à deux choses : son catalogue et son moteur de recommandations.

Les algorithmes utilisés sont confidentiels depuis le lancement de la plateforme de streaming en 2007, Netflix n’ayant jamais explicitement communiqué dessus.

Apparemment les choses sont en train de changer. Dans un article de blog datant de mi-décembre 2020, Netflix dévoile les principes généraux de son moteur de recommandation.

Ce moteur utilise un algorithme de tri, conçu autour de modèles de Transfer Learning supervisés et semi-supervisés, prenant en compte les métadonnées associées aux éléments, films ou séries, du catalogue.

L’ensemble des métadonnées est utilisé…


À quoi ressemblera l’informatique quantique en 2026 ?

Difficile à dire, mais c’est l’objet d’un document publié par IBM, qui a présenté il y a quelques jours la feuille de route de la division IBM Quantum.

IBM Quantum conçoit les solutions d’informatique quantique de IBM, dont évidemment Quantum Experience, la plateforme de Cloud Computing quantique qui a été ouverte au grand public en 2019.

L’ordinateur quantique le plus puissant du monde à l’heure actuel est le HummingBird, de IBM, qui propose 53 Qubits.

Dans ce document, IBM annonce être capable de monter à 100 Qubits d’ici fin 2021, puis de…


60 millions de dollars. C’est le montant levé par Immunai, une start-up new-yorkaise fondée en 2018 qui conçoit des algorithmes d’Intelligence Artificielle capables d’analyser le système immunitaire des patients.

De nombreuses innovations apparues ces dernières années promettent de révolutionner la médecine, à plus ou moins brève échéance.

Parmi celles-ci, la thérapie génique ou l’immunothérapie des cancers, qui pourraient guérir de maladies aujourd’hui incurables.

Ces innovations, folles sur le papier, se heurtent toutefois à un mur : la complexité du système immunitaire humain, à la fois incroyablement résilient et difficile à comprendre.

Ce système est la caricature d’un système complexe. Des…


It’s time to stop messing around.

This is the essence of OpenAI’s latest scientific publication, written in partnership with Stanford University.

State-of-the-art language processing models, such as OpenAI’s GPT-3, reach levels of complexity and performance never before achieved.

Under certain conditions, they are almost at the level of what the human brain can do for comprehension and text generation.

This raises many ethical questions, particularly about the use that can be made of these models if they fall into the hands of naïve or ill-intentioned people.

Moreover, the numerous biases noted when using these models, particularly with regard to the…

Guillaume Besson

Data & AI professional, sharing about Data Science and Artificial Intelligence news and innovations under a business perspective | @GuillaumeBess13

Get the Medium app

A button that says 'Download on the App Store', and if clicked it will lead you to the iOS App store
A button that says 'Get it on, Google Play', and if clicked it will lead you to the Google Play store