A empresa de navegadores líder, Opera, afirma que está adicionando suporte experimental para 150 LLM locais (Modelos de Linguagem de Grande Escala) variantes de aproximadamente 50 famílias de modelos ao seu navegador Opera One na versão de desenvolvedor.
LLMs como GPT (Modelos de Transformador Pré-treinado Generativo) desenvolvidos pela OpenAI, são sistemas avançados de inteligência artificial treinados em grandes quantidades de dados textuais para entender e gerar texto semelhante ao humano. Eles são usados para várias tarefas de processamento de linguagem natural, incluindo geração de texto, tradução e sumarização.
De acordo com a Opera, esta é a primeira vez que os LLMs locais podem ser facilmente acedidos e geridos a partir de um navegador principal através de uma funcionalidade integrada. Os modelos de IA locais são uma adição complementar ao serviço de IA online Aria da Opera. Entre os LLMs locais suportados estão:
* Llama da Meta
Vicuna
Gemma do Google
Mixtral da Mistral AI
“Apresentar LLMs locais desta forma permite à Opera começar a explorar maneiras de construir experiências e know-how dentro do espaço de IA local que está a emergir rapidamente,” disse Krystian Kolondra, EVP Browsers e Gaming na Opera.
Usar Modelos de Linguagem Grande Locais significa que os dados dos utilizadores são mantidos localmente no seu dispositivo, permitindo-lhes usar IA generativa sem a necessidade de enviar informações para um servidor, disse a Opera.
Entre os problemas que surgem no discurso sobre inteligência artificial está a privacidade dos dados, que viu três projetos de IA descentralizada líderes; Fetch.ai, SingularityNET (SNET) e Ocean Protocol decidindo fundir-se para criar um ecossistema de IA descentralizado.
“A partir de hoje, os utilizadores do Opera One Developer estão a ter a oportunidade de selecionar o modelo que desejam utilizar para processar a sua entrada. Para testar os modelos, têm de atualizar para a versão mais recente do Opera Developer e seguir vários passos para ativar a nova funcionalidade,” disse a Opera.
"Escolher um LLM local fará com que ele seja baixado para a máquina do usuário. O LLM local, que normalmente requer entre 2-10 GB de espaço de armazenamento local por variante, será então utilizado em vez de Aria, a IA nativa do navegador Opera, até que o usuário inicie um novo chat com a IA ou ative novamente o Aria."
Siga-nos no Twitter para as últimas publicações e atualizações
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
INTELIGÊNCIA ARTIFICIAL | O navegador Opera integra principais modelos de IA para download local e uso offline
A empresa de navegadores líder, Opera, afirma que está adicionando suporte experimental para 150 LLM locais (Modelos de Linguagem de Grande Escala) variantes de aproximadamente 50 famílias de modelos ao seu navegador Opera One na versão de desenvolvedor.
LLMs como GPT (Modelos de Transformador Pré-treinado Generativo) desenvolvidos pela OpenAI, são sistemas avançados de inteligência artificial treinados em grandes quantidades de dados textuais para entender e gerar texto semelhante ao humano. Eles são usados para várias tarefas de processamento de linguagem natural, incluindo geração de texto, tradução e sumarização.
De acordo com a Opera, esta é a primeira vez que os LLMs locais podem ser facilmente acedidos e geridos a partir de um navegador principal através de uma funcionalidade integrada. Os modelos de IA locais são uma adição complementar ao serviço de IA online Aria da Opera. Entre os LLMs locais suportados estão:
“Apresentar LLMs locais desta forma permite à Opera começar a explorar maneiras de construir experiências e know-how dentro do espaço de IA local que está a emergir rapidamente,” disse Krystian Kolondra, EVP Browsers e Gaming na Opera.
Usar Modelos de Linguagem Grande Locais significa que os dados dos utilizadores são mantidos localmente no seu dispositivo, permitindo-lhes usar IA generativa sem a necessidade de enviar informações para um servidor, disse a Opera.
Entre os problemas que surgem no discurso sobre inteligência artificial está a privacidade dos dados, que viu três projetos de IA descentralizada líderes; Fetch.ai, SingularityNET (SNET) e Ocean Protocol decidindo fundir-se para criar um ecossistema de IA descentralizado.
“A partir de hoje, os utilizadores do Opera One Developer estão a ter a oportunidade de selecionar o modelo que desejam utilizar para processar a sua entrada. Para testar os modelos, têm de atualizar para a versão mais recente do Opera Developer e seguir vários passos para ativar a nova funcionalidade,” disse a Opera.
"Escolher um LLM local fará com que ele seja baixado para a máquina do usuário. O LLM local, que normalmente requer entre 2-10 GB de espaço de armazenamento local por variante, será então utilizado em vez de Aria, a IA nativa do navegador Opera, até que o usuário inicie um novo chat com a IA ou ative novamente o Aria."
Siga-nos no Twitter para as últimas publicações e atualizações