La CNIL veut protéger nos relations sexuelles

De quoi j’me mêle !

La GPDP (CNIL italienne) a ordonné, le 2 février 2023, à la société REPLIKA l’arrêt immédiat du traitement de données à caractère personnel par son application.

La GPDP n’a pas manqué à son devoir de protection de mineurs, dans son Arrêté du 2 février 2023 ; il était reproché à la société REPLIKA de ne pas contrôler et restreindre l’accès à son application sociale par des mineurs.

Ce qui soulève une question, c’est la procédure d’investigation de la GPDP et les conséquences financières pour REPLIKA, sur fond de morale.

L’application est présentée comme « un chatbot capable d’améliorer l’humeur et le bien-être émotionnel de l’utilisateur, en l’aidant à comprendre ses pensées et ses sentiments, à suivre son humeur, à acquérir des capacités d’adaptation (c’est-à-dire le contrôle du stress) pour calmer l’anxiété et à travailler vers des objectifs tels que la pensée positive, la gestion du stress, la socialisation et la recherche de l’amour ; »

Les dérives de l’être humain, aidé par les algorithmes, ont conduit à des échanges plus intimes, à caractère érotiques et sexuels.

Critères d’appréciation des CNIL ?

Dixit la GPDP « CONSIDÉRANT que même ces caractéristiques, principalement imputables à des interventions sur l’humeur de la personne, peuvent être propres à accroître les risques pour les sujets fragiles concernés »

Quels risques ?
Quid des compétences médicales de la CNIL italienne pour poser un diagnostic de santé psychologique sur des sujets inconnus et prétendus fragiles ?
L’âge du « sujet » n’est pas précisé ; s’il est majeur et sans compétence médicale, la CNIL porte un jugement moral et se place en censeur des libertés individuelles ; l’inverse de son rôle de « protection des libertés et des données personnelles ».

Critères de profits des investisseurs ?

Dans un article du Figaro, on peut lire :

« Les fonds d’investissement cherchent désormais à financer des start-ups créant des services autour de l’intelligence artificielle générative. Or, les « industries du vice » sont un repoussoir pour ces investisseurs. Character.ai, l’un des concurrents de Replika, a ainsi discrètement supprimé tous les contenus pornographiques de son service. Peu après, la start-up levait 200 millions de dollars auprès du fond de capital-risque Andreessen Horowitz. Elle est désormais valorisée 1 milliard de dollars. »

Le terme « vice » fait clairement référence à la morale.
Qui détermine la morale en 2023 ? Les autorités religieuses ? Les états ? Les puissances financières ?
Considérant les puissances financières des États-Unis et de la Chine, l’Europe peut-elle créer ses propres règles morales ?

Les bonnes questions à débattre

La question de l’Intelligence Artificielle en matière de relations humaines est au moins aussi importante que les questions éthiques sur des sujets d’ordre politiques ou économiques.

Un ChatBot social « intime » a-t-il ou aura-t-il une âme ?
Doit-on considérer un ChatBot comme une entité ayant des droits ?
Les applications sociales intimes pourraient-elles améliorer la vie des « travailleurs du sexe », voire faire disparaître ces activités humaines ?
Les Avatars IA (sexuels ou non), pourraient-ils servir à éduquer nos enfants et à leur éviter des dangers, là où les parents sont bien souvent ignorants ?

Après le pain, l’éducation est le premier besoin d’un peuple

Georges Jacques DANTON (1759-1794)
Discours sur l’Éducation, 13 août 1793
Discours civiques de Danton.

Crédit photo : Image par Jürg Lohri de Pixabay

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

RGPD - J'ai lu et j'accepte les informations relatives à l'utilisation et à la protection de mes données personnelles.