Les risques pervers de l’intelligence artificelle

Chat GPT écrit n'importe quoi sur moi lorsque l’on tape mon nom et quelques informations correctes telles que ma date de naissance et mon métier de journaliste.

Je ne suis jamais allée en prison de ma vie, ni été condamnée, ni subi l’isolement et encore moins aidé les prisonniers à lutter pour leurs droits même si j’aurais adoré soutenir les réformes du système carcéral suisse. Par-dessus tout, il est impossible d’être envoyé au trou durant 15 ans en Suisse pour fraude financière. C’est pourtant ce que chat GPT écrit sur moi lorsque l’on tape mon nom et quelques informations correctes telles que ma date de naissance et mon métier de journaliste. Alors que ce texte m’a fait sourire, mon entourage s’est inquiété.

Et si ces informations restaient gravées sur la toile? Qu’elles pourraient-être les conséquences? Chat GPT est ainsi une menace non seulement pour l’école et la pédagogie mais il peut aussi produire de dangereuses «fake news». Une centaine d’experts, d’intellectuels et de personnalités publiques – dont Elon Musk, Steve Wozniak ou encore Yuval Noah Harari - ont signé une pétition publiée sur le site Futur Of Life pour qu’un moratoire de six mois soit mis en place sur le développement de l’intelligence artificielle, ceci car «les systèmes d’IA peuvent poser de graves risques pour la société et l’humanité».

Notamment des centaines de millions d’emplois seraient menacés dû à l’automatisation. L’IA peut certes apporter beaucoup de bénéfices à une société mais elle peut aussi être très perverse. Il faut ainsi se rendre compte des dangers qu’elle comporte et surtout garder en chacun de nous une certaine sagesse.