ШТУЧНИЙ ІНТЕЛЕКТ | Браузер Opera інтегрує основні моделі ШІ для локального завантаження та офлайн-використання

robot
Генерація анотацій у процесі

Ведуча компанія браузерів, Opera, повідомляє, що вона додає експериментальну підтримку 150 локальних LLM (Велика мовна модель) варіантів з приблизно 50 сімей моделей до свого браузера Opera One у потоці розробників.

LLM, такі як GPT (Generative Pre-trained Transformer) моделі, розроблені OpenAI, є передовими системами штучного інтелекту, натренованими на великих обсягах текстових даних для розуміння та генерації тексту, схожого на людський. Вони використовуються для різних завдань обробки природної мови, включаючи генерацію тексту, переклад та узагальнення.

Згідно з Opera, це перший раз, коли місцеві LLM можуть бути легко доступні та керовані з великого браузера через вбудовану функцію. Місцеві AI моделі є безкоштовним доповненням до онлайн-сервісу Aria AI від Opera. Серед підтримуваних місцевих LLM:

! * Лама з Meta

  • Вікуна
  • Джемма з Google
  • Мікстрал від Mistral AI

“Введення локальних LLM таким чином дозволяє Opera почати досліджувати способи створення досвіду та знань у швидко зростаючому місцевому AI-просторі,” сказав Кристіан Колондра, EVP Браузери та Ігри в Opera.

Використання локальних великих мовних моделей означає, що дані користувачів зберігаються локально на їхньому пристрої, що дозволяє їм використовувати генеративний ШІ без необхідності відправляти інформацію на сервер, повідомила компанія Opera.

Серед проблем, що виникають у дискурсі штучного інтелекту, є питання конфіденційності даних, яке спостерігається в трьох провідних децентралізованих проектах штучного інтелекту: Fetch.ai, SingularityNET (SNET) та Ocean Protocol, які вирішили об'єднатися для створення децентралізованої екосистеми штучного інтелекту.

"Станом на сьогодні, користувачі Opera One Developer отримують можливість вибрати модель, з якою вони хочуть обробляти свої дані. Щоб протестувати моделі, їм потрібно оновитися до найновішої версії Opera Developer та виконати кілька кроків для активації нової функції," - сказав Opera.

"Вибір місцевого LLM завантажить його на їхній комп'ютер. Місцевий LLM, який зазвичай потребує 2-10 ГБ місця для зберігання на диску на кожен варіант, буде використовуватися замість Aria, рідного браузерного ШІ Opera, поки користувач не почне новий чат з ШІ або не переключить Aria назад."

Слідкуйте за нами в Twitter для останніх постів та оновлень

MAJOR-2.95%
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити