Podemos confiar completamente na IA? Não, mas podemos monitorizá-la.

robot
Geração do resumo em andamento

Amamos máquinas. Seguímos nosso sistema de navegação para ir a lugares e avaliamos cuidadosamente recomendações sobre viagens, restaurantes e potenciais parceiros para a vida toda, em vários aplicativos e sites, pois sabemos que os algoritmos podem identificar oportunidades que podemos gostar, melhor do que nós conseguimos. Mas quando se trata de decisões finais sobre saúde, nosso trabalho ou nossos filhos, por exemplo, você confiaria e confiaria à IA para agir em seu nome? Provavelmente não.

É por isso que falamos com Kavya Pearlman, Fundadora e CEO da XRSI, que é o grupo de Inteligência de Segurança X-Reality que ela criou, para abordar e mitigar riscos na interação entre humanos e tecnologias exponenciais. Ela está sediada na Costa Oeste dos EUA, claro. Esta é a nossa troca

FP. O que está a acontecer com o advento da IA?

KP. Durante anos, as empresas de tecnologia normalizaram a ideia de que devemos abrir mão do nosso ativo mais valioso, os nossos dados, em troca de conveniência digital. Nós sempre clicamos em “aceitar” sem nunca fazer perguntas. Agora, com o aumento dos dispositivos vestíveis e 𝐀𝐈-𝐢𝐧𝐭𝐞𝐠𝐫𝐚𝐭𝐞𝐝 𝐬𝐲𝐬𝐭𝐞𝐦𝐬, os riscos são muito maiores. Não se trata mais apenas de histórico de navegação ou dados de localização. As empresas estão coletando insights dos nossos corpos e mentes, desde ritmos cardíacos e 𝐛𝐫𝐚𝐢𝐧 𝐚𝐜𝐭𝐢𝐯𝐢𝐭𝐲 até 𝐞𝐦𝐨𝐭𝐢𝐨𝐧𝐚𝐥 𝐬𝐭𝐚𝐭𝐞𝐬. E ainda assim, quase ninguém está perguntando: 𝐇𝐨𝐰 𝐝𝐨 𝐰𝐞 𝐭𝐫𝐮𝐬𝐭 𝐭𝐡𝐞𝐬𝐞 𝐬𝐲𝐬𝐭𝐞𝐦𝐬 𝐰𝐢𝐭𝐡 𝐨𝐮𝐫 𝐦𝐨𝐬𝐭 𝐢𝐧𝐭𝐢𝐦𝐚𝐭𝐞 𝐝𝐚𝐭𝐚? 𝐖𝐡𝐚𝐭 𝐩𝐨𝐰𝐞𝐫 𝐝𝐨 𝐰𝐞 𝐡𝐚𝐯𝐞 𝐢𝐟 𝐰𝐞 𝐝𝐨𝐧’𝐭 𝐭𝐫𝐮𝐬𝐭 𝐭𝐡𝐞𝐦? 𝐖𝐡𝐚𝐭 𝐚𝐫𝐞 𝐭𝐡𝐞 𝐢𝐧𝐝𝐢𝐜𝐚𝐭𝐨𝐫𝐬 𝐨𝐟 𝐭𝐫𝐮𝐬𝐭 𝐰𝐞 𝐬𝐡𝐨𝐮𝐥𝐝 𝐝𝐞𝐦𝐚𝐧𝐝?

Isso não é apenas um desafio técnico. É um desafio de governança e, em sua essência, uma questão de 𝐭𝐫𝐮𝐬𝐭. Sem transparência e responsabilidade, a IA corre o risco de amplificar preconceitos ocultos, erodindo a confiança e deixando as pessoas sem recursos quando os sistemas falham. 𝘛𝘳𝘶𝘴𝘵 𝘤𝘢𝘯𝘯𝘰𝘵 𝘦𝘹𝘪𝘴𝘵 𝘪𝘧 𝘸𝘦 𝘥𝘰𝘯’𝘵 𝘬𝘯𝘰𝘸 𝘸𝘩𝘢𝘵 𝘥𝘢𝘵𝘢 𝘪𝘴 𝘣𝘦𝘪𝘯𝘨 𝘤𝘰𝘭𝘭𝘦𝘤𝘵𝘦𝘥, 𝘩𝘰𝘸 𝘪𝘵’𝘴 𝘶𝘴𝘦𝘥, 𝘰𝘳 𝘩𝘰𝘸 𝘥𝘦𝘤𝘪𝘴𝘪𝘰𝘯𝘴 𝘢𝘳𝘦 𝘮𝘢𝘥𝘦.

FP. Você realmente pode criar um sistema que faça isso, transparência e responsabilidade?

KP. Você pode, se quiser. Como exemplo, acabamos de lançar nosso 𝐑𝐞𝐬𝐩𝐨𝐧𝐬𝐢𝐛𝐥𝐞 𝐃𝐚𝐭𝐚 𝐆𝐨𝐯𝐞𝐫𝐧𝐚𝐧𝐜𝐞 (𝐑𝐃𝐆) 𝐬𝐭𝐚𝐧𝐝𝐚𝐫𝐝. Ele fornece diretrizes concretas para tecnologias de IA e vestíveis, incluindo p𝐨𝐥𝐢𝐜𝐢𝐞𝐬 𝐜𝐥𝐚𝐫𝐚𝐬 sobre o que os dados podem e não podem ser usados, p𝐫𝐨𝐭𝐨𝐜𝐨𝐥𝐨𝐬 para gerenciar as saídas de IA e garantir sua qualidade, l𝐨𝐠𝐬 de e𝐱𝐩𝐥𝐚𝐢𝐧𝐚𝐛𝐢𝐥𝐢𝐭𝐲 para que as decisões não fiquem ocultas em uma 𝐛𝐥𝐚𝐜𝐤 𝐛𝐨𝐱, a𝐥𝐢𝐠𝐧𝐦𝐞𝐧𝐭o com regulamentações globais para proteger indivíduos em todo o mundo, e assim por diante.

FP. Por que uma empresa deveria adotar esses padrões?

KP. Eles têm o incentivo para fazê-lo, uma vez que os consumidores e fãs lá fora saberão quem é sério e quem não é. As organizações que atendem aos padrões podem ser facilmente identificadas. A IA não precisa apenas de modelos mais inteligentes; precisa de uma governança mais inteligente. Porque a confiança não é automática. Ela é conquistada, mantida e protegida através de uma governança de dados responsável. A questão já não é “a IA pode fazer isso?” mas sim “podemos confiar na forma como está a ser feito?”

FP. A confiança não é automática e o benefício dos consumidores, em linha com os valores humanos, pode não ser necessariamente o objetivo deste ou daquele modelo. Precisamos de novos padrões, reconhecidos em empresas públicas e privadas. Grupos como a XRSI estão a trabalhar nisso. O momento certo para entender, orientar, rotular, medir, etc... é agora.

Por Frank Pagano

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
0/400
Sem comentários
  • Marcar
Faça trade de criptomoedas em qualquer lugar e a qualquer hora
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)