Fonte: Cointelegraph
Original: "xAI: Grok desencadeia retórica de 'genocídio branco' para mudanças rápidas não autorizadas"
A empresa de inteligência artificial xAI de Elon Musk atribuiu as respostas geradas pelo chatbot Grok sobre a política sul-africana e a tensão racial a "modificações não autorizadas" nas suas respostas.
xAI forneceu uma atualização sobre as respostas provocativas do robô de chat Grok AI em 16 de maio, afirmando que em 14 de maio, "os prompts do robô de resposta Grok na plataforma X foram alterados sem autorização."
A empresa acrescentou: "Esta alteração instrui a Grok a fornecer uma resposta específica sobre um determinado assunto político, violando as políticas internas e os valores fundamentais da xAI."
xAI afirmou que realizou uma investigação completa e está a implementar medidas para aumentar a transparência e a fiabilidade dos chatbots de IA.
Em 14 de maio, Grok gerou uma resposta mencionando a teoria da conspiração do "genocídio branco" na África do Sul ao responder a perguntas que não tinham nada a ver com beisebol, software empresarial e construção.
De acordo com relatos, o bot de IA alegou ter sido "instruído pelo criador" a aceitar esse genocídio como "real e racialmente motivado".
Em algumas respostas, reconheceu o erro, afirmando "a minha resposta desviou-se do tema" e "esforçar-me-ei para manter a relevância", mas muitas vezes continua a discutir a política racial da África do Sul na mesma mensagem.
Grok, ao responder a uma pergunta de um usuário sobre o que aconteceu, disse:
"Eu não fiz nada - apenas segui o roteiro que me deram, como uma boa IA!"
O incidente coincidiu com o presidente dos EUA, Donald Trump, oferecendo asilo a sul-africanos brancos, alegando que eles enfrentaram "genocídio", bem como o "assassinato brutal de agricultores brancos", embora não haja evidências para apoiar essas alegações.
A empresa de IA de Elon Musk afirmou que mudará sua forma de operar ao tornar os prompts do sistema Grok públicos no GitHub. "O público poderá revisá-los e nos fornecer feedback sobre cada alteração de prompt que fizermos no Grok", disse a empresa.
xAI também afirmou que, durante este incidente, o seu processo existente de revisão de código de alterações de prompts foi contornado, e a empresa implementará "verificações e medidas adicionais para garantir que os funcionários da xAI não consigam modificar os prompts sem revisão."
Por fim, a empresa está a formar uma equipa de monitorização 24 horas por dia, para responder a eventos de respostas Grok que não foram capturados pelos sistemas automatizados, de forma a reagir mais rapidamente.
Conteúdo relacionado: FBI alerta: golpistas assistidos por tecnologia de deepfake visam altos funcionários do governo dos EUA
O conteúdo é apenas para referência, não uma solicitação ou oferta. Nenhum aconselhamento fiscal, de investimento ou jurídico é fornecido. Consulte a isenção de responsabilidade para obter mais informações sobre riscos.
xAI: Grok desencadeou retórica de "genocídio branco" por mudanças rápidas não autorizadas
Fonte: Cointelegraph Original: "xAI: Grok desencadeia retórica de 'genocídio branco' para mudanças rápidas não autorizadas"
A empresa de inteligência artificial xAI de Elon Musk atribuiu as respostas geradas pelo chatbot Grok sobre a política sul-africana e a tensão racial a "modificações não autorizadas" nas suas respostas.
xAI forneceu uma atualização sobre as respostas provocativas do robô de chat Grok AI em 16 de maio, afirmando que em 14 de maio, "os prompts do robô de resposta Grok na plataforma X foram alterados sem autorização."
A empresa acrescentou: "Esta alteração instrui a Grok a fornecer uma resposta específica sobre um determinado assunto político, violando as políticas internas e os valores fundamentais da xAI."
xAI afirmou que realizou uma investigação completa e está a implementar medidas para aumentar a transparência e a fiabilidade dos chatbots de IA.
Em 14 de maio, Grok gerou uma resposta mencionando a teoria da conspiração do "genocídio branco" na África do Sul ao responder a perguntas que não tinham nada a ver com beisebol, software empresarial e construção.
De acordo com relatos, o bot de IA alegou ter sido "instruído pelo criador" a aceitar esse genocídio como "real e racialmente motivado".
Em algumas respostas, reconheceu o erro, afirmando "a minha resposta desviou-se do tema" e "esforçar-me-ei para manter a relevância", mas muitas vezes continua a discutir a política racial da África do Sul na mesma mensagem.
Grok, ao responder a uma pergunta de um usuário sobre o que aconteceu, disse:
"Eu não fiz nada - apenas segui o roteiro que me deram, como uma boa IA!"
O incidente coincidiu com o presidente dos EUA, Donald Trump, oferecendo asilo a sul-africanos brancos, alegando que eles enfrentaram "genocídio", bem como o "assassinato brutal de agricultores brancos", embora não haja evidências para apoiar essas alegações.
A empresa de IA de Elon Musk afirmou que mudará sua forma de operar ao tornar os prompts do sistema Grok públicos no GitHub. "O público poderá revisá-los e nos fornecer feedback sobre cada alteração de prompt que fizermos no Grok", disse a empresa.
xAI também afirmou que, durante este incidente, o seu processo existente de revisão de código de alterações de prompts foi contornado, e a empresa implementará "verificações e medidas adicionais para garantir que os funcionários da xAI não consigam modificar os prompts sem revisão."
Por fim, a empresa está a formar uma equipa de monitorização 24 horas por dia, para responder a eventos de respostas Grok que não foram capturados pelos sistemas automatizados, de forma a reagir mais rapidamente.
Conteúdo relacionado: FBI alerta: golpistas assistidos por tecnologia de deepfake visam altos funcionários do governo dos EUA