人工知能 | オペラブラウザが主要なAIモデルをローカルダウンロードおよびオフライン使用のために統合

robot
概要作成中

主要なブラウザ会社であるOperaは、約50のモデルファミリーからの150のローカルLLM (Large Language Model)のバリアントに対する実験的なサポートをOpera Oneブラウザの開発者ストリームに追加することを発表しました。

LLMは、OpenAIによって開発されたGPT (生成事前学習トランスフォーマー)モデルなどの高度な人工知能システムであり、大量のテキストデータをもとに人間のようなテキストを理解し生成するために訓練されています。これらは、テキスト生成、翻訳、要約など、さまざまな自然言語処理タスクに使用されます。

Operaによると、これはローカルLLMに簡単にアクセスし、主要なブラウザから組み込み機能を通じて管理できる初めての機会です。ローカルAIモデルは、OperaのオンラインAria AIサービスへの補完的な追加です。サポートされているローカルLLMには、次のものがあります:

* メタのラマ

  • ビクーニャ
  • GoogleのGemma
  • Mistral AIのMixtral

*「このようにローカルLLMを導入することで、Operaは急速に発展するローカルAI領域での体験やノウハウを構築する方法を探求し始めることができます。」*とOperaのブラウザおよびゲーム担当EVP、クリスティアン・コロンドラ氏は述べました。

ローカルの大規模言語モデルを使用することは、ユーザーのデータがデバイス上にローカルに保持され、情報をサーバーに送信する必要なく生成的AIを使用できることを意味すると、オペラは述べました。

人工知能の議論において浮上している問題の中にはデータプライバシーがあり、Fetch.ai、SingularityNET (SNET)、そしてOcean Protocolの3つの主要な分散型AIプロジェクトが合併して分散型AIエコシステムを作ることを決定しました。

*「今日現在、Opera One Developerのユーザーは、自分の入力を処理するために使用したいモデルを選択できる機会を得ています。モデルをテストするには、最新のOpera Developerにアップグレードし、新機能を有効にするためのいくつかの手順に従う必要があります。」*とOperaは述べました。

「ローカルLLMを選択すると、それが彼らのマシンにダウンロードされます。通常、各バリアントには2-10 GBのローカルストレージスペースが必要なローカルLLMは、ユーザーがAIとの新しいチャットを開始するか、Ariaを再びオンにするまで、Aria、OperaのネイティブブラウザAIの代わりに使用されます。」

最新の投稿やアップデートについてはTwitterをフォローしてください

MAJOR-3.58%
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
0/400
コメントなし
いつでもどこでも暗号資産取引
qrCode
スキャンしてGateアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)