Tout le monde peut se tromper, même les IA !
Eh oui, celles que l’on prend parfois pour des surhommes (ou des surfemmes) imbattables, incollables sur tout et à qui il est impossible de poser une colle sont tout aussi faillibles que vous et moi et peuvent aussi se tromper. C’est ce que l’on veut dire lorsque l’on parle d’hallucination d’IA !
Rien à voir avec un trouble schizophrénique, ChatGPT n’entend pas de voix mystique et ne voit pas d’éléphant rose dans la pièce. Ces hallucinations surviennent lorsque l’IA génère des informations incorrectes ou inventées, tout en ayant l’air parfaitement convaincante. Ce phénomène résulte ni plus ni moins d’un manque de données fiables qui pousse l’IA à produire des réponses qu’elle pense être justes, mais qui sont en réalité fausses. Elle remplit les vides avec des informations qu’elle estime pertinentes. Un peu comme moi au bac de philo quand il m’a fallu disserter sur “L’inconscient échappe-t-il à toute forme de connaissance ?”. Et bim, syndrome de la page blanche… mais il faut bien la remplir !
Au final, c’est comme tout : l’IA a ses limites, particulièrement dans la mesure où, contrairement à un humain, elle n’a pas (encore) la capacité de douter ou de vérifier ses propres réponses (est-ce que ChatGPT pense, donc il est ?) !
Alors réjouissons-nous car il n’est pas encore arrivé, le jour où la machine remplacera l’homme.