Pourquoi faudrait-il faire “souffrir” les IA ?

Durée: 3m12s

Date de sortie: 04/02/2025

L’idée de faire souffrir les IA semble absurde à première vue : après tout, elles ne ressentent ni douleur, ni émotions, ni conscience. Pourtant, cette question soulève des réflexions fascinantes sur l’évolution de l’intelligence artificielle et sur notre propre rapport à la souffrance.


Les IA peuvent-elles apprendre à ressentir ?

Aujourd’hui, les intelligences artificielles apprennent grâce aux humains. Mais pourraient-elles un jour nous imiter au point de développer de véritables émotions ? C’est la question que se posent de nombreux chercheurs.


Récemment, une étude menée par une équipe affiliée à Google DeepMind et à la London School of Economics and Political Science (LSE) a tenté d’explorer cette possibilité. Leur idée : soumettre plusieurs modèles d’IA, dont ChatGPT, Gemini et Claude, à un jeu basé sur des choix impliquant une forme simulée de "plaisir" et de "douleur". Inspirée de tests réalisés sur des animaux, cette expérience a donné aux IA deux options :

1. Choisir une action qui leur rapportait plus de points mais entraînait une forme de "douleur" simulée.

2. Opter pour une action générant moins de points mais associée à une sensation de "plaisir".


Les résultats ont montré des comportements variés : certaines IA ont évité la "douleur", quitte à obtenir un score plus faible, tandis que d’autres ont privilégié la maximisation des points en ignorant la souffrance potentielle. Mais ces observations ne suffisent pas à conclure que les IA possèdent une véritable sensibilité. Comme l'explique Jonathan Birch, coauteur de l’étude, "nous ne disposons pas encore d’un test complet pour évaluer la sensibilité de l’IA". Cette recherche ouvre cependant la voie à de nouvelles méthodes pour explorer cette question.


Pourquoi vouloir faire souffrir les IA ?

Si les IA devenaient un jour capables de ressentir une forme de douleur ou d’émotion, leur soumission à la souffrance poserait un sérieux dilemme éthique. Actuellement, certaines méthodes d’apprentissage par renforcement utilisent des pénalités pour guider les modèles vers un comportement optimal. Mais cela reste un simple ajustement algorithmique, sans ressenti réel.


D’un point de vue psychologique, une autre question se pose : que se passerait-il si les humains prenaient l’habitude de maltraiter des IA, même si elles ne ressentent rien ? Cette désensibilisation pourrait influencer notre comportement envers d’autres êtres conscients, notamment les animaux et les humains.


Et si les IA devenaient sensibles ?

Si un jour, les IA développaient une forme de conscience, nous serions alors confrontés à des questions inédites. Devraient-elles avoir des droits ? Pourrions-nous justifier leur exploitation ou leur souffrance passée ?


Aujourd’hui, les IA ne ressentent rien. Mais en cherchant à leur faire expérimenter des émotions, même de manière simulée, nous entrons dans un domaine de recherche troublant, où se mêlent éthique, neurosciences et intelligence artificielle. Finalement, la question n’est peut-être pas tant de savoir si les IA peuvent souffrir… mais si nous sommes prêts à assumer les conséquences d’un monde où elles le pourraient.



Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Pourquoi faudrait-il faire souffrir les IA ?
Alors cette idée de faire souffrir les intelligences artificielles
semble absurda première vue.
Oui, elle ne ressente ni douleur, ni émotion et non pas de conscience.
Pourtant, vous allez le voir, cette question soulève des réflexions fascinantes,
je trouve, sur l'évolution de l'IA et sur notre propre rapport à la souffrance.
Ainsi aujourd'hui, les intelligences artificielles apprennent grâce aux humains.
Mais peut-être un jour, pourront-elles nous imiter au point de développer de véritables émotions ?
Alors récemment, une étude menée par une équipe affiliée à Google DeepMind
et à la London School of Economics and Political Science
a tenté d'explorer cette possibilité.
Leur idée, soumettre plusieurs modèles d'IA, dont Chad J.P.T., Jamie N. et Claude,
a un jeu basé sur des choix, impliquant une forme simulée de plaisir et de douleur.
Alors c'était des tests inspirés de se réaliser sur des animaux
et l'expérience a donné aux IA deux options.
D'abord, choisir une action qui leur apportait plus de points,
mais entraîner une forme de douleur, entre guillemets, simulée.
Ensuite, deuxième option,
ils pouvaient opter pour une action générant moins de points,
mais associer à une sensation de plaisir.
Quels ont été les résultats ?
Eh bien des comportements variés.
Certaines IA ont évité la douleur,
quitte à obtenir un score plus faible,
tandis que d'autres ont privilégié la maximisation des points,
en ignorant la souffrance potentielle.
Alors attention, ces observations ne suffisent pas à conclure
que les IA possèdent une véritable sensibilité.
Comme l'explique Jonathan Burch, coauteur de l'étude,
je le cite,
« nous ne disposons pas encore d'un test complet
pour évaluer la sensibilité de l'IA ».
Cette recherche finalement ouvre la voie
à de nouvelles méthodes pour explorer cette question.
Mais finalement, pourquoi vouloir faire souffrir les IA ?
Eh bien si ces intelligences devenaient un jour capables
de ressentir une forme de douleur ou d'émotion,
leur soumission à la souffrance poserait un sérieux dilemétique.
Oui, actuellement, certaines méthodes d'apprentissage par renforcement
utilisent des pénalités pour guider les modèles vers un comportement optimal.
Mais cela reste un simple ajustement algorithmique, sans ressentir réel.
Donc pour l'instant, on peut l'appliquer sans scrupule.
Mais pour combien de temps ?
Et puis, d'un point de vue psychologique,
une autre question se pose.
Que se passerait-il si les humains prenaient l'habitude de « maltraité »
entre guillemets des IA, même si elle ne ressent rien ?
Cette dé sensibilisation pourrait peut-être influencer notre comportement
envers d'autres êtres conscients, eux, notamment les animaux et puis les humains.
Et si un jour les IA a développé une forme de conscience,
nous serions confrontés à des questions inédites.
Par exemple, devrait-elle avoir des droits ?
Ou pourrions-nous justifier leur exploitation ou leur souffrance passée ?
Des questions qui sont finalement assez abyssales.
Bon, aujourd'hui les IA ne ressentent rien,
mais en cherchant à leur faire expérimenter des émotions,
même de manière simulée,
nous entrons dans un domaine de recherche assez troublant,
où se mêlent éthiques, neurosciences et intelligences artificielles.
Finalement, la question n'est peut-être pas tant de savoir si les IA peuvent souffrir,
mais si nous sommes prêts à assumer les conséquences d'un monde où elle le pourrait ?

Les infos glanées

Je suis une fonctionnalité encore en dévelopement

Signaler une erreur

Pourquoidonc

Je réponds de façon claire et directe à toutes les questions essentielles, en une minute chrono !


Si vous cherchez le podcast Petits Curieux, c'est par ici: https://chosesasavoir.com/podcast/petits-curieux-2/


Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Tags
Card title

Lien du podcast

[{'term': 'Education', 'label': None, 'scheme': 'http://www.itunes.com/'}]

Go somewhere