Des chercheurs africains mettent en garde contre le battage médiatique de l’IA – The Mail & Guardian

IA ou Intelligence Artificielle. Homme discutant avec un robot IA intelligent ou une intelligence artificielle à l’aide d’un chatbot d’intelligence artificielle développé par OpenAI.

Invitez ce programme informatique à se décrire et il dit que c’est « comme parler à un ami bien informé ».

Lancé par la société OpenAI basée à San Francisco en novembre, ChatGPT imite la conversation humaine, répondant instantanément à tout ce que vous tapez dans sa boîte de discussion. Il peut vous raconter une blague et composer des paroles de chansons ; il peut rédiger vos notes de présentation et offrir des conseils relationnels. Vous pensez à « ça », mais il se réfère à lui-même à la première personne – « je ».

ChatGPT fonctionne de manière transparente avec l’autre produit phare d’OpenAI, Dall-E, qui peut créer toutes les images et illustrations que vous décrivez avec des invites de texte.

D’autres entreprises technologiques telles que Google et Facebook ont ​​déjà publié leurs propres versions de cette technologie puissante qui promet de révolutionner notre façon de travailler et de communiquer.

Mais ses créateurs pensent qu’il est capable de bien plus que cela. Qualifiant leurs créations d' »intelligence artificielle », ils affirment que cela finira par rendre les machines plus intelligentes – beaucoup plus intelligentes – que les humains.

« Cette technologie pourrait nous aider à élever l’humanité en augmentant l’abondance, en dynamisant l’économie mondiale et en aidant à la découverte de nouvelles connaissances scientifiques qui modifient les limites du possible », écrit le directeur général d’OpenAI, un Américain de 38 ans nommé Sam Altman, sur le site Web de l’entreprise.

« Notre mission est de veiller à ce que l’intelligence générale artificielle – des systèmes d’IA qui sont généralement plus intelligents que les humains – profite à toute l’humanité. »

« C’est un dieu qu’ils essaient de construire », a déclaré l’informaticien d’origine éthiopienne Timnit Gebru. Gebru, dont les travaux sur les biais dans les algorithmes Internet l’ont vue co-diriger l’équipe d’éthique de l’intelligence artificielle de Google, n’est pas trop préoccupée par «l’intelligence» de ces logiciels.

Des programmes tels que ChatGPT sont formés sur de grandes quantités de mots et de conversations humaines, dont une grande partie a été récupérée sans consentement ni respect des droits d’auteur sur Internet, une forme de vol de propriété intellectuelle.

Lorsqu’on lui demande, le logiciel peut reproduire les modèles et les connexions dans ces vastes ensembles de données, d’une manière qui, aux yeux de l’homme, peut ressembler à de l' »intelligence ».

Mais le logiciel ne pense pas. Il ne fait que régurgiter les données sur lesquelles il a été formé. Ses réponses dépendent entièrement du contenu de ces données – bien qu’il ait également tendance à inventer de fausses réponses, que ses créateurs utilisent l’expérience humaine des « hallucinations » pour décrire.

Gebru a consacré une grande partie de sa carrière à mettre en évidence les risques immédiats posés par ce nouveau logiciel. Elle et plusieurs co-auteurs ont écrit un article en 2020 – qui lui a coûté son travail chez Google – qui en décrivait certains, notamment :

  • L’impact extrême sur l’environnement – l’énergie utilisée pour former ChatGPT avec un énorme ensemble de données de langage humain une seule fois pourrait alimenter 12 000 foyers de Johannesburg pendant un mois ;
  • Le potentiel de préjugés et de discrimination inhérents – si les données sont racistes et sexistes (comme une grande partie d’Internet l’est), les résultats le seront également ; et
  • Le potentiel de ces modèles à tromper les utilisateurs – parce qu’ils sont si doués pour nous ressembler qu’ils peuvent facilement tromper les humains – même lorsque le contenu est inexact ou inventé.

Dans un espace de coworking à Johannesburg, une vision différente de l’intelligence artificielle est mise au point. Lelapa AI n’essaie pas de créer un programme pour nous déjouer tous. Au lieu de cela, il crée des programmes ciblés qui utilisent l’apprentissage automatique et d’autres outils pour cibler des besoins spécifiques.

Son premier grand projet, Vulavula, est conçu pour fournir des services de traduction et de transcription pour les langues sous-représentées en Afrique du Sud. Au lieu de récolter le Web pour les données d’autres personnes, Lelapa AI travaille avec des linguistes et des populations locales pour collecter des informations et leur donne un intérêt dans les bénéfices futurs.

Deux des fondatrices de l’entreprise, Jade Abbot et Pelonomi Moiloa, partagent les craintes de Gebru, tout comme un nombre impressionnant de femmes, et en particulier de femmes de couleur, dans le domaine de l’IA.

« Ces programmes sont construits par l’Occident sur des données de l’Occident et représentent leurs valeurs et leurs principes », a déclaré Abbott, qui note que les perspectives et l’histoire africaines sont largement exclues des ensembles de données utilisés par OpenAI et le grand modèle linguistique de Google ou LLM. .

C’est parce qu’ils ne peuvent pas être facilement « grattés ». Une grande partie de l’histoire africaine est enregistrée oralement ou a été détruite par les colonisateurs, et les langues africaines ne sont tout simplement pas prises en charge – parlez à ChatGPT en Setswana ou isiZulu et ses réponses seront en grande partie absurdes.

Pour Lelapa, cela représente une opportunité. Parce que les données africaines sont si difficiles à trouver, OpenAI et Google auront du mal à faire fonctionner efficacement leurs outils sur le continent, laissant un vide sur le marché pour une alternative locale.

« Le fait que ChatGPT échoue sur nos langues… c’est l’occasion pour nous de construire notre propre maison, avant qu’ils ne trouvent comment nous exploiter », a déclaré Moiloa.

Les conséquences de ne pas construire « notre propre maison » sont potentiellement graves, a-t-elle déclaré. « Les données sont le nouvel or. Ils nous extrairont les données, créeront des programmes et nous revendront ensuite ces programmes. Et puis tous les profits sortent.

Gebru est d’accord : « Ils ont mis l’équivalent d’un déversement de pétrole dans l’écosystème de l’information. Qui en profite et qui s’occupe des déchets ? C’est exactement le même schéma que l’impérialisme.

Abonnez-vous au M&G