Les systèmes d'IA peuvent se tromper sans l'admettre

Pour construire un système d'intelligence artificielle auquel les humains peuvent confier des responsabilités de vie ou de mort, les machines devront développer un trait très humain : Admettre leurs erreurs.

Les systèmes d'IA peuvent se tromper sans l'admettre

Par Tara Haelle

Le 5 avril 2022 C Des systèmes d'intelligence artificielle sont en train d'être construits pour aider à diagnostiquer des maladies, mais avant que nous puissions leur confier des responsabilités de vie ou de mort, l'IA devra développer un trait très humain : Admettre ses erreurs.

Et la vérité est qu'elle ne peut pas encore le faire.

Aujourd'hui, l'IA est plus souvent capable de fournir la bonne réponse à un problème que de se rendre compte qu'elle a fait une erreur, selon des chercheurs de l'université de Cambridge et de l'université d'Oslo.

Selon eux, cette faille fondamentale trouve son origine dans un problème mathématique.

Certains énoncés mathématiques ne peuvent être prouvés vrais ou faux. Par exemple, les mêmes mathématiques que la plupart d'entre nous avons apprises à l'école pour trouver des réponses à des questions simples et délicates ne peuvent ensuite être utilisées pour prouver notre cohérence dans leur application.

Peut-être avons-nous donné la bonne réponse, peut-être pas, mais nous avions besoin de vérifier notre travail. C'est quelque chose que les algorithmes informatiques ne peuvent pas encore faire.

C'est un paradoxe mathématique identifié pour la première fois par les mathématiciens Alan Turing et Kurt G?del au début du 20e siècle, qui signale que certains problèmes mathématiques ne peuvent être prouvés.

Le mathématicien Stephen Smale a ensuite répertorié ce défaut fondamental de l'IA parmi les 18 problèmes mathématiques non résolus dans le monde.

S'appuyant sur ce paradoxe mathématique, des chercheurs, dirigés par Matthew Colbrook, PhD, du département de mathématiques appliquées et de physique théorique de l'université de Cambridge, ont proposé une nouvelle façon de classer les problèmes de l'IA.

Dans la revue Proceedings of the National Academy of Sciences, les chercheurs décrivent les situations dans lesquelles les réseaux neuronaux de l'IA, calqués sur le réseau de neurones du cerveau humain, peuvent être formés pour produire des résultats plus fiables.

Il s'agit de travaux préliminaires importants, nécessaires pour créer des systèmes d'IA plus intelligents et plus sûrs.

Hot