Ведущая браузерная компания Opera заявляет, что добавляет экспериментальную поддержку 150 локальных LLM (Large Language Model) вариантов из примерно 50 семейств моделей в свой браузер Opera One в разработческом потоке.
LLM, такие как GPT (Generative Pre-trained Transformer) модели, разработанные OpenAI, являются современными системами искусственного интеллекта, обученными на больших объемах текстовых данных для понимания и генерации текста, похожего на человеческий. Они используются для различных задач обработки естественного языка, включая генерацию текста, перевод и суммирование.
Согласно Opera, это первый раз, когда локальные LLM могут быть легко доступны и управляемы из основного браузера через встроенную функцию. Локальные модели ИИ являются бесплатным дополнением к онлайн-сервису Aria AI от Opera. Среди поддерживаемых локальных LLM:
! * Лама из Meta
Викуна
Джемма из Google
Mixtral от Mistral AI
“Представление локальных LLM таким образом позволяет Opera начать исследовать способы создания опыта и знаний в быстро развивающемся локальном AI-пространстве,” сказал Кристиян Колондра, EVP по браузерам и играм в Opera.
Использование локальных больших языковых моделей означает, что данные пользователей хранятся локально на их устройстве, что позволяет им использовать генеративный ИИ без необходимости отправлять информацию на сервер, сказал Opera.
Среди проблем, возникающих в дискурсе об искусственном интеллекте, касается конфиденциальности данных, что привело к решению трех ведущих децентрализованных AI проектов; Fetch.ai, SingularityNET (SNET) и Ocean Protocol объединиться для создания децентрализованной экосистемы AI.
"На сегодняшний день пользователи Opera One Developer получают возможность выбирать модель, с которой они хотят обрабатывать свой ввод. Чтобы протестировать модели, им нужно обновиться до последней версии Opera Developer и выполнить несколько шагов для активации новой функции," - заявила Opera.
“Выбор локальной LLM затем загрузит ее на их машину. Локальная LLM, которая обычно требует 2-10 ГБ локального пространства для хранения на каждый вариант, будет использоваться вместо Aria, родного ИИ браузера Opera, до тех пор, пока пользователь не начнет новый чат с ИИ или не включит Aria снова.”
Подписывайтесь на нас в Twitter, чтобы получать последние сообщения и обновления
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ | Браузер Opera интегрирует основные модели ИИ для локальной загрузки и оффлайн-использования
Ведущая браузерная компания Opera заявляет, что добавляет экспериментальную поддержку 150 локальных LLM (Large Language Model) вариантов из примерно 50 семейств моделей в свой браузер Opera One в разработческом потоке.
LLM, такие как GPT (Generative Pre-trained Transformer) модели, разработанные OpenAI, являются современными системами искусственного интеллекта, обученными на больших объемах текстовых данных для понимания и генерации текста, похожего на человеческий. Они используются для различных задач обработки естественного языка, включая генерацию текста, перевод и суммирование.
Согласно Opera, это первый раз, когда локальные LLM могут быть легко доступны и управляемы из основного браузера через встроенную функцию. Локальные модели ИИ являются бесплатным дополнением к онлайн-сервису Aria AI от Opera. Среди поддерживаемых локальных LLM:
! * Лама из Meta
“Представление локальных LLM таким образом позволяет Opera начать исследовать способы создания опыта и знаний в быстро развивающемся локальном AI-пространстве,” сказал Кристиян Колондра, EVP по браузерам и играм в Opera.
Использование локальных больших языковых моделей означает, что данные пользователей хранятся локально на их устройстве, что позволяет им использовать генеративный ИИ без необходимости отправлять информацию на сервер, сказал Opera.
Среди проблем, возникающих в дискурсе об искусственном интеллекте, касается конфиденциальности данных, что привело к решению трех ведущих децентрализованных AI проектов; Fetch.ai, SingularityNET (SNET) и Ocean Protocol объединиться для создания децентрализованной экосистемы AI.
"На сегодняшний день пользователи Opera One Developer получают возможность выбирать модель, с которой они хотят обрабатывать свой ввод. Чтобы протестировать модели, им нужно обновиться до последней версии Opera Developer и выполнить несколько шагов для активации новой функции," - заявила Opera.
“Выбор локальной LLM затем загрузит ее на их машину. Локальная LLM, которая обычно требует 2-10 ГБ локального пространства для хранения на каждый вариант, будет использоваться вместо Aria, родного ИИ браузера Opera, до тех пор, пока пользователь не начнет новый чат с ИИ или не включит Aria снова.”
Подписывайтесь на нас в Twitter, чтобы получать последние сообщения и обновления