Amamos las máquinas. Seguimos nuestro sistema de navegación para ir a lugares y evaluamos cuidadosamente las recomendaciones sobre viajes, restaurantes y posibles parejas para toda la vida, a través de varias aplicaciones y sitios web, ya que sabemos que los algoritmos podrían detectar oportunidades que nos podrían gustar, mejor de lo que nosotros podemos hacerlo. Pero cuando se trata de decisiones finales sobre salud, nuestro trabajo o nuestros hijos, por ejemplo, ¿confiarías y encargarías a la IA actuar en tu nombre? Probablemente no.
Esta es la razón por la que (FP) hablamos con Kavya Pearlman (KP), Fundadora y CEO de XRSI, que es el grupo de Inteligencia de Seguridad X-Reality que ella formó, para abordar y mitigar riesgos en la interacción entre humanos y tecnologías exponenciales. Ella está ubicada en la Costa Oeste de EE. UU., por supuesto. Este es nuestro intercambio
FP. ¿Qué está pasando con la llegada de la IA?
KP. Durante años, las empresas tecnológicas han normalizado la idea de que debemos renunciar a nuestro activo más valioso, nuestros datos, a cambio de comodidad digital. Siempre hacemos clic en “aceptar” sin hacer preguntas. Ahora, con el auge de los dispositivos portátiles y sistemas 𝐀𝐈-𝐢𝐧𝐭𝐞𝐠𝐫𝐚𝐭𝐞𝐝, las apuestas son mucho más altas. Ya no se trata solo del historial de navegación o los datos de ubicación. Las empresas están cosechando información de nuestros cuerpos y mentes, desde ritmos cardíacos y 𝐛𝐫𝐚𝐢𝐧 𝐚𝐜𝐭𝐢𝐯𝐢𝐭𝐲 hasta 𝐞𝐦𝐨𝐭𝐢𝐨𝐧𝐚𝐥 𝐬𝐭𝐚𝐭𝐞𝐬. Y aun así, casi nadie está preguntando: 𝐇𝐨𝐰 𝐝𝐨 𝐰𝐞 𝐭𝐫𝐮𝐬𝐭 𝐭𝐡𝐞𝐬𝐞 𝐬𝐲𝐬𝐭𝐞𝐦𝐬 𝐰𝐢𝐭𝐡 𝐨𝐮𝐫 𝐦𝐨𝐬𝐭 𝐢𝐧𝐭𝐢𝐦𝐚𝐭𝐞 𝐝𝐚𝐭𝐚? 𝐖𝐡𝐚𝐭 𝐩𝐨𝐰𝐞𝐫 𝐝𝐨 𝐰𝐞 𝐡𝐚𝐯𝐞 𝐢𝐟 𝐰𝐞 𝐝𝐨𝐧’𝐭 𝐭𝐫𝐮𝐬𝐭 𝐭𝐡𝐞𝐦? 𝐖𝐡𝐚𝐭 𝐚𝐫𝐞 𝐭𝐡𝐞 𝐢𝐧𝐝𝐢𝐜𝐚𝐭𝐨𝐫𝐬 𝐨𝐟 𝐭𝐫𝐮𝐬𝐭 𝐰𝐞 𝐬𝐡𝐨𝐮𝐥𝐝 𝐝𝐞𝐦𝐚𝐧𝐝?
Este no es solo un desafío técnico. Es un desafío de gobernanza y, en su esencia, una cuestión de 𝐭𝐫𝐮𝐬𝐭. Sin transparencia y rendición de cuentas, la IA corre el riesgo de amplificar sesgos ocultos, erosionar la confianza y dejar a las personas sin recursos cuando los sistemas se equivocan. 𝘛𝘳𝘶𝘴𝘵 𝘤𝘢𝘯𝘯𝘰𝘵 𝘦𝘹𝘪𝘴𝘵 𝘪𝘧 𝘸𝘦 𝘥𝘰𝘯’𝘵 𝘬𝘯𝘰𝘸 𝘸𝘩𝘢𝘵 𝘥𝘢𝘵𝘢 𝘪𝘴 𝘣𝘦𝘪𝘯𝘨 𝘤𝘰𝘭𝘭𝘦𝘤𝘵𝘦𝘥, 𝘩𝘰𝘸 𝘪𝘵’𝘴 𝘶𝘴𝘦𝘥, 𝘰𝘳 𝘩𝘰𝘸 𝘥𝘦𝘤𝘪𝘴𝘪𝘰𝘯𝘴 𝘢𝘳𝘦 𝘮𝘢𝘥𝘦.
FP. ¿Realmente puedes crear un sistema que haga eso, transparencia y responsabilidad?
KP. Puedes, si quieres. Como ejemplo, acabamos de lanzar nuestro 𝐑𝐞𝐬𝐩𝐨𝐧𝐬𝐢𝐛𝐥𝐞 𝐃𝐚𝐭𝐚 𝐆𝐨𝐯𝐞𝐫𝐧𝐚𝐧𝐜𝐞 (𝐑𝐃𝐆) 𝐬𝐭𝐚𝐧𝐝𝐚𝐫𝐝. Proporciona límites concretos para la tecnología de IA y dispositivos portátiles, incluyendo p𝐨𝐥𝐢𝐜𝐢𝐞𝐬 𝐜𝐥𝐚𝐫𝐨𝐬 sobre qué 𝐝𝐚𝐭𝐚 puede y no puede ser utilizada, p𝐫𝐨𝐭𝐨𝐜𝐨𝐥𝐨𝐬 para gestionar las salidas de IA y asegurar su calidad, e𝐱𝐩𝐥𝐚𝐢𝐧𝐚𝐛𝐢𝐥𝐢𝐭𝐲 𝐥𝐨𝐠𝐬 para que las decisiones no estén ocultas en una 𝐛𝐥𝐚𝐜𝐤 𝐛𝐨𝐱, a𝐥𝐢𝐠𝐧𝐦𝐞𝐧𝐭o con las regulaciones globales para proteger a los individuos a través de las fronteras, y así sucesivamente.
FP. ¿Por qué debería una empresa adoptar estos estándares?
KP. Tienen el incentivo para hacerlo, ya que los consumidores y fanáticos sabrán quiénes son serios y quiénes no. Las organizaciones que cumplen con los estándares pueden ser fácilmente identificadas. La IA no solo necesita modelos más inteligentes; necesita una gobernanza más inteligente. Porque la confianza no es automática. Se gana, se mantiene y se protege a través de una gobernanza de datos responsable. La pregunta ya no es “¿puede la IA hacer esto?” sino más bien “¿podemos confiar en la forma en que se está haciendo?”
FP. La confianza no es automática y el beneficio de los consumidores, en línea con los valores humanos, puede no ser necesariamente el objetivo de este o aquel modelo. Necesitamos nuevos estándares, reconocidos en empresas públicas y privadas. Grupos como XRSI están trabajando en ello. El momento adecuado para entender, guiar, etiquetar, medir, etc... es ahora.
Por Frank Pagano
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
¿Podemos confiar completamente en la IA? No, pero podemos monitorearla.
Amamos las máquinas. Seguimos nuestro sistema de navegación para ir a lugares y evaluamos cuidadosamente las recomendaciones sobre viajes, restaurantes y posibles parejas para toda la vida, a través de varias aplicaciones y sitios web, ya que sabemos que los algoritmos podrían detectar oportunidades que nos podrían gustar, mejor de lo que nosotros podemos hacerlo. Pero cuando se trata de decisiones finales sobre salud, nuestro trabajo o nuestros hijos, por ejemplo, ¿confiarías y encargarías a la IA actuar en tu nombre? Probablemente no.
Esta es la razón por la que (FP) hablamos con Kavya Pearlman (KP), Fundadora y CEO de XRSI, que es el grupo de Inteligencia de Seguridad X-Reality que ella formó, para abordar y mitigar riesgos en la interacción entre humanos y tecnologías exponenciales. Ella está ubicada en la Costa Oeste de EE. UU., por supuesto. Este es nuestro intercambio
FP. ¿Qué está pasando con la llegada de la IA?
KP. Durante años, las empresas tecnológicas han normalizado la idea de que debemos renunciar a nuestro activo más valioso, nuestros datos, a cambio de comodidad digital. Siempre hacemos clic en “aceptar” sin hacer preguntas. Ahora, con el auge de los dispositivos portátiles y sistemas 𝐀𝐈-𝐢𝐧𝐭𝐞𝐠𝐫𝐚𝐭𝐞𝐝, las apuestas son mucho más altas. Ya no se trata solo del historial de navegación o los datos de ubicación. Las empresas están cosechando información de nuestros cuerpos y mentes, desde ritmos cardíacos y 𝐛𝐫𝐚𝐢𝐧 𝐚𝐜𝐭𝐢𝐯𝐢𝐭𝐲 hasta 𝐞𝐦𝐨𝐭𝐢𝐨𝐧𝐚𝐥 𝐬𝐭𝐚𝐭𝐞𝐬. Y aun así, casi nadie está preguntando: 𝐇𝐨𝐰 𝐝𝐨 𝐰𝐞 𝐭𝐫𝐮𝐬𝐭 𝐭𝐡𝐞𝐬𝐞 𝐬𝐲𝐬𝐭𝐞𝐦𝐬 𝐰𝐢𝐭𝐡 𝐨𝐮𝐫 𝐦𝐨𝐬𝐭 𝐢𝐧𝐭𝐢𝐦𝐚𝐭𝐞 𝐝𝐚𝐭𝐚? 𝐖𝐡𝐚𝐭 𝐩𝐨𝐰𝐞𝐫 𝐝𝐨 𝐰𝐞 𝐡𝐚𝐯𝐞 𝐢𝐟 𝐰𝐞 𝐝𝐨𝐧’𝐭 𝐭𝐫𝐮𝐬𝐭 𝐭𝐡𝐞𝐦? 𝐖𝐡𝐚𝐭 𝐚𝐫𝐞 𝐭𝐡𝐞 𝐢𝐧𝐝𝐢𝐜𝐚𝐭𝐨𝐫𝐬 𝐨𝐟 𝐭𝐫𝐮𝐬𝐭 𝐰𝐞 𝐬𝐡𝐨𝐮𝐥𝐝 𝐝𝐞𝐦𝐚𝐧𝐝?
Este no es solo un desafío técnico. Es un desafío de gobernanza y, en su esencia, una cuestión de 𝐭𝐫𝐮𝐬𝐭. Sin transparencia y rendición de cuentas, la IA corre el riesgo de amplificar sesgos ocultos, erosionar la confianza y dejar a las personas sin recursos cuando los sistemas se equivocan. 𝘛𝘳𝘶𝘴𝘵 𝘤𝘢𝘯𝘯𝘰𝘵 𝘦𝘹𝘪𝘴𝘵 𝘪𝘧 𝘸𝘦 𝘥𝘰𝘯’𝘵 𝘬𝘯𝘰𝘸 𝘸𝘩𝘢𝘵 𝘥𝘢𝘵𝘢 𝘪𝘴 𝘣𝘦𝘪𝘯𝘨 𝘤𝘰𝘭𝘭𝘦𝘤𝘵𝘦𝘥, 𝘩𝘰𝘸 𝘪𝘵’𝘴 𝘶𝘴𝘦𝘥, 𝘰𝘳 𝘩𝘰𝘸 𝘥𝘦𝘤𝘪𝘴𝘪𝘰𝘯𝘴 𝘢𝘳𝘦 𝘮𝘢𝘥𝘦.
FP. ¿Realmente puedes crear un sistema que haga eso, transparencia y responsabilidad?
KP. Puedes, si quieres. Como ejemplo, acabamos de lanzar nuestro 𝐑𝐞𝐬𝐩𝐨𝐧𝐬𝐢𝐛𝐥𝐞 𝐃𝐚𝐭𝐚 𝐆𝐨𝐯𝐞𝐫𝐧𝐚𝐧𝐜𝐞 (𝐑𝐃𝐆) 𝐬𝐭𝐚𝐧𝐝𝐚𝐫𝐝. Proporciona límites concretos para la tecnología de IA y dispositivos portátiles, incluyendo p𝐨𝐥𝐢𝐜𝐢𝐞𝐬 𝐜𝐥𝐚𝐫𝐨𝐬 sobre qué 𝐝𝐚𝐭𝐚 puede y no puede ser utilizada, p𝐫𝐨𝐭𝐨𝐜𝐨𝐥𝐨𝐬 para gestionar las salidas de IA y asegurar su calidad, e𝐱𝐩𝐥𝐚𝐢𝐧𝐚𝐛𝐢𝐥𝐢𝐭𝐲 𝐥𝐨𝐠𝐬 para que las decisiones no estén ocultas en una 𝐛𝐥𝐚𝐜𝐤 𝐛𝐨𝐱, a𝐥𝐢𝐠𝐧𝐦𝐞𝐧𝐭o con las regulaciones globales para proteger a los individuos a través de las fronteras, y así sucesivamente.
FP. ¿Por qué debería una empresa adoptar estos estándares?
KP. Tienen el incentivo para hacerlo, ya que los consumidores y fanáticos sabrán quiénes son serios y quiénes no. Las organizaciones que cumplen con los estándares pueden ser fácilmente identificadas. La IA no solo necesita modelos más inteligentes; necesita una gobernanza más inteligente. Porque la confianza no es automática. Se gana, se mantiene y se protege a través de una gobernanza de datos responsable. La pregunta ya no es “¿puede la IA hacer esto?” sino más bien “¿podemos confiar en la forma en que se está haciendo?”
FP. La confianza no es automática y el beneficio de los consumidores, en línea con los valores humanos, puede no ser necesariamente el objetivo de este o aquel modelo. Necesitamos nuevos estándares, reconocidos en empresas públicas y privadas. Grupos como XRSI están trabajando en ello. El momento adecuado para entender, guiar, etiquetar, medir, etc... es ahora.
Por Frank Pagano