Pouvons-nous faire complètement confiance à l'IA ? Non, mais nous pouvons la surveiller.

robot
Création du résumé en cours

Nous aimons les machines. Nous suivons notre système de navigation pour nous rendre à des endroits, et évaluons soigneusement les recommandations concernant les voyages, les restaurants et les partenaires potentiels pour la vie, à travers diverses applications et sites web, car nous savons que les algorithmes pourraient repérer des opportunités que nous pourrions aimer, mieux que nous ne pourrions jamais le faire. Mais quand il s'agit de décisions finales concernant la santé, notre travail ou nos enfants, par exemple, feriez-vous confiance à l'IA pour agir en votre nom ? Probablement pas.

C'est pourquoi nous (FP) parlons à Kavya Pearlman (KP), Fondatrice & PDG de XRSI, qui est le groupe X-Reality Safety Intelligence qu'elle a constitué, pour aborder et atténuer les risques dans l'interaction entre les humains et les technologies exponentielles. Elle est basée sur la côte ouest des États-Unis, bien sûr. C'est notre échange

FP. Que se passe-t-il avec l'avènement de l'IA ?

KP. Pendant des années, les entreprises technologiques ont normalisé l'idée que nous devons renoncer à notre actif le plus précieux, nos données, en échange de la commodité numérique. Nous cliquons toujours sur « accepter » sans jamais poser de questions. Maintenant, avec la montée des dispositifs portables et des systèmes 𝐀𝐈-𝐢𝐧𝐭𝐞𝐠𝐫𝐚𝐭𝐞𝐝, les enjeux sont beaucoup plus élevés. Il ne s'agit plus simplement de l'historique de navigation ou des données de localisation. Les entreprises récoltent des informations sur nos corps et nos esprits, des rythmes cardiaques et de l'𝐚𝐜𝐭𝐢𝐯𝐢𝐭𝐞𝐬 𝐝𝐞 𝐥'𝐚𝐢𝐧 à des états émotionnels. Et pourtant, presque personne ne demande : 𝐇𝐨𝐰 𝐝𝐨 𝐰𝐞 𝐭𝐫𝐮𝐬𝐭 𝐭𝐡𝐞𝐬𝐞 𝐬𝐲𝐬𝐭𝐞𝐦𝐬 𝐰𝐢𝐭𝐡 𝐨𝐮𝐫 𝐦𝐨𝐬𝐭 𝐢𝐧𝐭𝐢𝐦𝐚𝐭𝐞 𝐝𝐚𝐭𝐚 ? 𝐖𝐡𝐚𝐭 𝐩𝐨𝐰𝐞𝐫 𝐝𝐨 𝐰𝐞 𝐡𝐚𝐯𝐞 𝐢𝐟 𝐰𝐞 𝐝𝐨𝐧’𝐭 𝐭𝐫𝐮𝐬𝐭 𝐭𝐡𝐞𝐦 ? 𝐖𝐡𝐚𝐭 𝐚𝐫𝐞 𝐭𝐡𝐞 𝐢𝐧𝐝𝐢𝐜𝐚𝐭𝐨𝐫𝐬 𝐨𝐟 𝐭𝐫𝐮𝐬𝐭 𝐰𝐞 𝐬𝐡𝐨𝐮𝐥𝐝 𝐝𝐞𝐦𝐚𝐧𝐝 ?

Ce n'est pas seulement un défi technique. C'est un défi de gouvernance et, au fond, une question de 𝐭𝐫𝐮𝐬𝐭. Sans transparence et responsabilité, l'IA risque d'amplifier les biais cachés, d'éroder la confiance et de laisser les gens sans recours lorsque les systèmes se trompent. 𝘛𝘳𝘶𝘴𝘵 𝘤𝘢𝘯𝘯𝘰𝘵 𝘦𝘹𝘪𝘴𝘵 𝘪𝘧 𝘸𝘦 𝘥𝘰𝘯’𝘵 𝘬𝘯𝘰𝘸 𝘸𝘩𝘢𝘵 𝘥𝘢𝘵𝘢 𝘪𝘴 𝘣𝘦𝘪𝘯𝘨 𝘤𝘰𝘭𝘭𝘦𝘤𝘵𝘦𝘥, 𝘩𝘰𝘸 𝘪𝘵’𝘴 𝘶𝘴𝘦𝘥, 𝘰𝘳 𝘩𝘰𝘸 𝘥𝘦𝘤𝘪𝘴𝘪𝘰𝘯𝘴 𝘢𝘳𝘦 𝘮𝘢𝘥𝘦.

FP. Pouvez-vous vraiment créer un système qui fait cela, transparence et responsabilité ?

KP. Vous pouvez, si vous le souhaitez. À titre d'exemple, nous venons de lancer notre 𝐑𝐞𝐬𝐩𝐨𝐧𝐬𝐢𝐛𝐥𝐞 𝐃𝐚𝐭𝐚 𝐆𝐨𝐯𝐞𝐫𝐧𝐚𝐧𝐜𝐞 (𝐑𝐃𝐆) 𝐬𝐭𝐚𝐧𝐝𝐚𝐫𝐝. Il fournit des garde-fous concrets pour l'IA et les technologies portables, y compris des p𝐨𝐥𝐢𝐜𝐢𝐞𝐬 𝐜𝐥𝐚𝐢𝐫𝐞𝐬 sur ce que les données peuvent et ne peuvent pas être utilisées, des p𝐫𝐨𝐭𝐨𝐜𝐨𝐥𝐞𝐬 pour gérer les résultats de l'IA et garantir leur qualité, des e𝐱𝐩𝐥𝐚𝐢𝐧𝐚𝐛𝐢𝐥𝐢𝐭𝐢𝐞𝐬 𝐥𝐨𝐠𝐬 afin que les décisions ne soient pas cachées dans une 𝐛𝐥𝐚𝐜𝐤 𝐛𝐨𝐱, un a𝐥𝐢𝐠𝐧𝐦𝐞𝐧𝐭 avec les réglementations mondiales pour protéger les individus à travers les frontières, et ainsi de suite.

FP. Pourquoi une entreprise devrait-elle adopter ces normes ?

KP. Ils ont effectivement l'incitation à le faire, car les consommateurs et les fans sauront qui est sérieux et qui ne l'est pas. Les organisations qui respectent les normes peuvent être facilement identifiées. L'IA n'a pas seulement besoin de modèles plus intelligents ; elle a besoin d'une gouvernance plus intelligente. Parce que la confiance n'est pas automatique. Elle est acquise, maintenue et protégée par une gouvernance des données responsable. La question n'est plus « l'IA peut-elle faire cela ? » mais plutôt « pouvons-nous faire confiance à la manière dont cela est fait ? »

FP. La confiance n'est pas automatique et le bénéfice des consommateurs, conformément aux valeurs humaines, n'est pas nécessairement l'objectif de tel ou tel modèle. Nous avons besoin de nouvelles normes, reconnues dans les entreprises publiques et privées. Des groupes comme XRSI y travaillent. Le bon moment pour comprendre, guider, étiqueter, mesurer, etc. est maintenant.

Par Frank Pagano

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)