Чи можемо ми повністю довіряти ШІ? Ні, але ми можемо його контролювати.

robot
Генерація анотацій у процесі

Ми любимо машини. Ми підписуємося на нашу навігаційну систему, щоб добратися до місць, і ретельно оцінюємо рекомендації щодо подорожей, ресторанів і потенційних партнерів на все життя, через різні додатки та веб-сайти, оскільки ми знаємо, що алгоритми можуть виявити можливості, які нам можуть сподобатися, краще ніж ми коли-небудь зможемо. Але коли справа доходить до остаточних рішень щодо здоров'я, нашої роботи або наших дітей, наприклад, чи довірите ви і покладете на AI діяти від вашого імені? Напевно, ні.

Ось чому ми (FP) спілкуємося з Кав'єю Пірлман (KP), засновником і генеральним директором XRSI, який є групою інтелектуальної безпеки X-Reality, яку вона створила, щоб вирішити та зменшити ризики у взаємодії між людьми та експоненціальними технологіями. Вона, звичайно, базується на Західному узбережжі США. Це наше обмін.

FP. Що відбувається з приходом ШІ?

KP. Протягом багатьох років технологічні компанії нормалізували ідею, що ми повинні відмовитися від нашого найціннішого активу, наших даних, в обмін на цифрову зручність. Ми завжди натискаємо «прийняти», навіть не ставлячи запитань. Тепер, з ростом носимих пристроїв та 𝐀𝐈-𝐢𝐧𝐭𝐞𝐠𝐫𝐚𝐭𝐞𝐝 𝐬𝐲𝐬𝐭𝐞𝐦𝐬, ставки значно вищі. Це вже не лише про історію переглядів чи дані про місцезнаходження. Компанії збирають інформацію з наших тіл і розумів, від ритмів серця до 𝐛𝐫𝐚𝐢𝐧 𝐚𝐜𝐭𝐢𝐯𝐢𝐭𝐲 і 𝐞𝐦𝐨𝐭𝐢𝐨𝐧𝐚𝐥 𝐬𝐭𝐚𝐭𝐞𝐬. І все ж, майже ніхто не запитує: 𝐇𝐨𝐰 𝐝𝐨 𝐰𝐞 𝐭𝐫𝐮𝐬𝐭 𝐭𝐡𝐞𝐬𝐞 𝐬𝐲𝐬𝐭𝐞𝐦𝐬 𝐰𝐢𝐭𝐡 𝐨𝐮𝐫 𝐦𝐨𝐬𝐭 𝐢𝐧𝐭𝐢𝐦𝐚𝐭𝐞 𝐝𝐚𝐭𝐚? 𝐖𝐡𝐚𝐭 𝐩𝐨𝐰𝐞𝐫 𝐝𝐨 𝐰𝐞 𝐡𝐚𝐯𝐞 𝐢𝐟 𝐰𝐞 𝐝𝐨𝐧’𝐭 𝐭𝐫𝐮𝐬𝐭 𝐭𝐡𝐞𝐦? 𝐖𝐡𝐚𝐭 𝐚𝐫𝐞 𝐭𝐡𝐞 𝐢𝐧𝐝𝐢𝐜𝐚𝐭𝐨𝐫𝐬 𝐨𝐟 𝐭𝐫𝐮𝐬𝐭 𝐰𝐞 𝐬𝐡𝐨𝐮𝐥𝐝 𝐝𝐞𝐦𝐚𝐧𝐝?

Це не просто технічний виклик. Це виклик управління, а в його основі – питання 𝐭𝐫𝐮𝐬𝐭. Без прозорості та підзвітності штучний інтелект ризикує посилити приховані упередження, підірвати довіру та залишити людей без можливості реагувати, коли системи роблять помилки. 𝘛𝘳𝘶𝘴𝘵 𝘤𝘢𝘯𝘯𝘰𝘵 𝘦𝘹𝘪𝘴𝘵 𝘪𝘧 𝘸𝘦 𝘥𝘰𝘯’𝘵 𝘬𝘯𝘰𝘸 𝘸𝘩𝘢𝘵 𝘥𝘢𝘵𝘢 𝘪𝘴 𝘣𝘦𝘪𝘯𝘨 𝘤𝘰𝘭𝘭𝘦𝘤𝘵𝘦𝘥, 𝘩𝘰𝘸 𝘪𝘵’𝘴 𝘶𝘴𝘦𝘥, 𝘰𝘳 𝘩𝘰𝘸 𝘥𝘦𝘤𝘪𝘴𝘪𝘰𝘯𝘴 𝘢𝘳𝘦 𝘮𝘢𝘥𝘦.

FP. Чи дійсно ви можете створити систему, яка це робить, прозорість і підзвітність?

КП. Можна, якщо захотіти. Наприклад, ми щойно запустили наш стандарт відповідального управління даними (RDG). Він забезпечує конкретні огорожі для штучного інтелекту та носимих технологій, включаючи чітку політику щодо того, які дані можна і не можна використовувати, протоколи для управління виходами штучного інтелекту та забезпечення їх якості, журнали пояснення, щоб рішення не були приховані в чорній скриньці, узгодження з глобальними правилами для захисту людей через кордони тощо

FP. Чому компанії слід прийняти ці стандарти?

KP. Вони мають стимул це робити, оскільки споживачі та фанати знають, хто серйозний, а хто ні. Організації, які відповідають стандартам, можна легко ідентифікувати. ШІ не лише потребує розумніших моделей; йому потрібне розумніше управління. Тому що довіра не є автоматичною. Вона заробляється, підтримується та захищається через відповідальне управління даними. Питання вже не в тому, "чи може ШІ це зробити?", а скоріше "чи можемо ми довіряти способу, яким це робиться?"

FP. Довіра не є автоматичною, і користь споживачів, відповідно до людських цінностей, може не бути об'єктивом тієї чи іншої моделі. Нам потрібні нові стандарти, визнані в державному та приватному секторах. Групи, такі як XRSI, працюють над цим. Правильний час для розуміння, керівництва, маркування, вимірювання тощо… це зараз.

Франк Пагано

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити