OpenAl
o1-preview
2024年9月13日にリリースされました。o1モデルはOpenAIの推論能力における大きな進歩を示しています。以前のGPT-4oと比較して、o1-previewは多くの面でより優れた性能を発揮し、特にコード作成や複雑な問題解決の能力が向上しています。全く新しい最適化アルゴリズムと特別にカスタマイズされた新しいトレーニングデータセットを採用することで、モデルの精度と推論能力が大幅に向上しました。
o1-mini
o1-previewと同時にリリースされ、o1シリーズの小型版です。o1-previewより80%安い価格設定で、使用回数に制限はありますが、複雑なコードの生成とデバッグにおいて優れた性能を発揮し、特に開発者向けに適しています。
gpt-4o-2015-05-13
OpenAIは2024年5月13日に新しい大規模モデルGPT-4oを正式に発表しました。"o"はOmni(全能)の意味を持ち、多機能性を強調しています。多モーダルエンドツーエンドのリアルタイム推論が可能で、変換不要であり、応答遅延が大幅に短縮されています。
gpt-4o
GPT-4oは、テキスト、音声、画像、ビデオの任意の組み合わせを入力として受け取り、テキスト、音声、画像の任意の組み合わせを出力できます。音声に対する応答時間は最短232ミリ秒、平均320ミリ秒で、人間の会話速度に近いレベルです。
gpt-4o-mini-2024-07-18
2024年7月18日に発売されたこのモデルは、GPT-4oの機能を継承しながらも、GPT-4oなどの大型モデルに比べて大幅に小型化され、安価となっています。
gpt-4-plus
GPT-4 のアップグレード版であり、より正確なテキスト表現、より高度な感情分析、より高度な意味理解機能など、GPT-4 をベースにした一部の機能がアップグレードされており、自然言語の理解と生成のパフォーマンスも向上しています。より良い。
gpt-4o-2024-08-06
2024 年 8 月 6 日に発売されたこれは、マルチモーダル モデル GPT-4o の更新バージョンであり、API に画期的な機能である構造化出力が導入されており、モデルによって生成される出力が、によって提供される要件に完全に準拠できるようになります。これにより、API の信頼性とアプリケーションの精度が大幅に向上します。
chatgpt-4o-latest
2024 年 8 月 15 日にリリースされた GPT-4o は、コーディング、命令フォロー、およびハード プロンプトが大幅に改善されており、推論に関しては最大 128K のコンテキスト出力と最大 16K の出力トークンをサポートしています。 、GPT-4oと同じです。4oと比較して大きな改善があります。
gpt-4-turbo
2024 年 4 月に正式にリリースされるこのモデルは、より強力で安価であり、ビジョン、画像作成、ナレッジ ベースの更新、つまり現実世界の 128K のコンテキスト ウィンドウをサポートしています。知識 現在の期限は 2023 年 4 月です。入力トークンは GPT-4 より 3 倍安く、出力トークンは 2 倍安くなります。
gpt-4-turbo-preview
GPT-4-Turbo プレビュー モデルは 2023 年 11 月 6 日に発表され、その後バージョン 0125 に更新されました。パフォーマンスが向上しただけでなく、英語以外の UTF-8 世代に影響を与える脆弱性も修正され、モデルの安定性とマルチ性が向上しました。 -言語サポート。
gpt-3.5-turbo-0125
GPT-3.5-turbo の最新モデルでは、要求された形式で応答する際の精度が向上し、英語以外の言語で関数を呼び出すときにテキスト エンコードの問題を引き起こすバグが修正され、安定性と精度が向上しました。同時に価格も向上しました。 gpt-3.5-turbo-0125 の量も以前に比べて減少しました。
gpt-4
2023 年 3 月 14 日に OpenAI によって正式にリリースされたこれは、GPT シリーズ モデルの第 4 世代であり、より強力な言語理解と生成機能、マルチモーダル処理機能、より大きなモデル規模、改善されたセキュリティと倫理を備えており、さまざまな用途で使用できます。対話システム、コンテンツ生成、コード作成、データ分析、教育、研究などの分野。
Gemini
gemini-1.5-pro-002
Googleは2024年9月25日にGemini-1.5 Proを発表しました。この新バージョンは、他の1.5シリーズモデルと比較して全体的な品質が向上しており、数学、長文コンテキスト、視覚的な面で大幅な改善が見られます。より複雑で微妙な差異を持つ指令を理解する能力が向上し、価格は50%以上削減され、レート制限は約3倍に向上、出力速度は2倍に向上、遅延は3倍削減されています。
gemini-1.5-flash-002
Gemini-1.5-Pro-002と同時に発表されたGemini-1.5-Flash-002は、軽量モデルですが、多モーダル推論能力では優れた性能を示しています。要約作成、チャットアプリケーション、画像とビデオ字幕の提供、長文書や表からデータを抽出するタスクに適しています。また、応答速度も大幅に改善されています。
gemini-1.5-pro
第 1 世代モデルは、2024 年 2 月 15 日に Google によってリリースされました。これは、Gemini-1.0-Pro のアップグレード バージョンであり、超長時間のコンテキスト コンテンツをサポートし、最大 100 万のトークン (1 時間のビデオに相当) を安定して処理できます。 11 時間の音声)、30,000 行のコードまたは 700,000 ワード以上)、マルチモーダル入力をサポートし、画像、ドキュメント、ビデオ、音声などの複数のフォームを分析、要約、処理できます。
gemini-1.5-pro-0801
これは gemini-1.5-pro の実験版であり、多言語タスクに優れており、数学、複雑なプロンプト、コーディングなどの技術分野で優れたパフォーマンスを発揮します。もう 1 つの優れた機能は、最大 200 万トークンの拡張コンテキスト ウィンドウです。市場には多くの AI モデルが存在します。
gemini-1.5-flash-001
Googleは2024年5月15日にGemini-1.5 Flashを発表しました。このモデルはAPIを通じて提供される最も速いGeminiモデルで、突破的な長文能力を持ちながら、大規模で高頻度のタスク処理に最適化されています。要約、チャットアプリケーション、画像とビデオ字幕生成、長文書や表からデータを抽出するタスクに優れています。
ANTHROPIC
claude-3.5-soonet-20241022
Anthropicの最新バージョンであるClaude-3.5-Sonnetは、以前のバージョンを全面的に上回る能力を持ちます。特にコード能力が向上しており、ユーザーの指令に基づいてカーソルを移動したり、対応する位置をクリックしたり、仮想キーボードで情報を入力することができます。これにより、人間とコンピューターのインタラクションを模倣することが可能です。
claude-3.5-sonnet-20240620
Anthropic社が2024年6月20日にリリースしたLLM大規模言語モデルは、Claude3.5シリーズモデルの先行版に属し、微妙な違いの理解、ユーモアのセンス、複雑な指示の処理においてより優れた性能を発揮します。また、文章のスタイルもより自然で親しみやすくなり、グラフや図表の説明も得意としています。
claude-3-opus
Opus は Claude3 シリーズの中で最も先進的なモデルであり、非常に複雑なタスクに対して市場で最高のパフォーマンスを発揮し、優れたスムーズさと人間のような理解力でさまざまなオープン プロンプトや未知のシナリオを簡単に処理できます。
claude-3-haiku
これは Anthropic の最速かつ最小のモデルであり、ほぼ瞬時の応答機能を提供し、簡単な質問に答えてリクエストに非常に迅速に応答できます。Haiku の価格は、入力トークンあたり 0.25 米ドル、出力トークンあたり 1.25 米ドルと非常に安価です。
中国モデル
Qwen-Max
これは、Alibaba Cloud が独自に開発した大規模な言語モデルであり、ユーザーによる自然言語入力を理解して分析するために使用され、複数のステップからなるタスクを処理するのに適しています。 qwen-max-longcontext を含むモデル バージョンは、最大 30,000 ワードのコンテキストをサポートし、長いドキュメントや複雑なロジックの処理を必要とするタスクのニーズを満たします。
Qwen-VL-Max
これは、Alibaba のオープンソース モデル Qwen-VL のアップグレード バージョンであり、画像関連の推論機能と、画像内の詳細とテキストを識別、抽出、分析する機能が大幅に向上し、メガピクセルの高解像度画像をサポートします。上記の画像やさまざまな長い形式の画像は、中国語の質疑応答や中国語のテキストの理解に関連するタスクに適しています。
Qwen-Math-Plus
Qwen-Math-Plusは、数学問題解決に特化した言語モデルで、大規模な予備学習、専用のコーパス、指令微調整、報酬モデル、二元信号、PPO最適化などを技術原理としています。このモデルは複数の数学ベンチマークテストで優れた性能を示しており、特に数学競技問題の解答で他の先行するオープンソースモデルを超えています。
GLM-4
GLM-4 は、2024 年 1 月 16 日に Zhipu AI によってリリースされた大規模な基本モデルです。128k のコンテキスト ウィンドウの長さをサポートでき、1 つのプロンプト ワードで処理できるテキストは同時に 300 ページに達します。マルチモーダル機能の点で、Vincent 図とマルチモーダルの理解が強化されました。
GLM-4-Long
超長文およびメモリベースのタスクを処理するために特別に設計されたモデルで、最大コンテキスト長 1M、約 150 ~ 200 万語の超長文入力をサポートします。長文推論機能と制御可能な応答時間を備えています。 100 万ワードのテキストを処理するのに最適な、テキスト データをスケーリングするための強力なツールです。
GLM-4-Plus
GLM-4-Plusは2024年8月29日に発表され、言語理解能力、指令遵守能力、長文処理能力など多くの重要な指標で大幅な向上を遂げました。多様な方法で構築された大量の高品質データとPPOなどの技術を活用し、モデル推論や指令遵守などの性能を効果的に向上させました。
GLM-4-Air
全体的なパフォーマンスは GLM-4 に近いですが、価格は 100 万トークンあたりわずか 1 元で、128k コンテキスト、高速、手頃な価格を備えたコスト効率の高いバージョンです。
GLM-4-Airx
GLM-4-Air の高性能バージョン。パフォーマンスは変わらず、8k コンテキストで 2.6 倍高速な推論を備えています。
CodeGeeX-4
Code Gee コード補完と生成、コード インタプリタ、ネットワーク検索、ツール呼び出し、ウェアハウス レベルのロング コード Q&A と生成などの機能をサポートできます。
GLM-4V
GLM-4V は視覚理解機能を備え、視覚言語機能の緊密な統合を実現し、視覚的な質問応答、画像字幕、視覚的位置決め、複雑なターゲット検出などのさまざまな画像理解タスクをサポートします。
GLM-4V-Plus
GLM-4V-Plusは智譜AIが発表した新世代の画像/ビデオ理解モデルで、卓越した画像理解能力と時間感知に基づいたビデオ理解能力を持ちます。画像理解では複雑なビデオコンテンツを理解・分析し、時間感知能力も強く、ウェブコンテンツをHTMLコードに変換するだけでなく、ビデオ内の動作やシーンの変化を精確に説明することができます。
Baichuan3-Turbo
高頻度のエンタープライズ シナリオ向けに最適化され、Baichuan2 モデルと比較して効果が大幅に向上し、コスト効率が向上しました。コンテンツ作成は 20%、知識 Q&A は 17%、ロールプレイング機能は 40% 向上しました。 。
Baichuan4
Baichuan Intelligence が 2024 年 5 月 22 日にリリースした最新世代のベースモデルは、一般的な機能、数学、コード処理能力が向上しており、知識百科事典、長文テキスト、クリエイティブ生成などの中国語タスクで優れた能力を発揮します。国内の権威ある大型モデル評価機関である SuperCLUE の評価において、Baichuan4 のモデル能力は国内第 1 位にランクされており、業界初の地位にあると考えられています。
Moonshot-v1-8k
Moonshot-v1 は、Moonshot AI によって開始された 1,000 億のパラメーターの言語モデルであり、優れた意味理解、命令追従、およびテキスト生成機能を備えており、8K のコンテキスト ウィンドウをサポートしています。短いテキストの生成に適しています。
Yi-Ligtning
零一万物は2024年10月16日に新旗艦モデルYi-Lightningを正式に発表しました。このモデルはレスポンスタイムが大幅に改善されており、初回パケット時間が2倍に向上、最高生成速度が約4割向上しました。多輪対話、数学、コードなど多くの分野で優れた成績を示しており、価格面でも大きな利点があり、Yi大モデルオープンプラットフォームで利用可能です。
Yi-Large
Zero One Thousand Things Company は、2024 年 5 月 13 日にパラメータ規模 1,000 億の大規模なクローズドソース モデルをリリースしました。その主な機能には、複雑な推論、予測、詳細なコンテンツの作成に適した、非常に強力なテキスト生成および推論機能が含まれます。などのシーン。
Y-Vision
Yi-Vision は、Zero-One Wanshou によってリリースされた大規模なオープンソースのマルチモーダル言語モデルです。Yi 言語モデルに基づいて開発されており、高性能の画像理解および分析機能を備えており、画像ベースのチャット、分析、およびサービスを提供できます。他のシナリオ。
Step-1V-8k
国内の大手モデル会社 Step Star が発売した Step-1V は、数千億のパラメータを備えた大規模なマルチモーダル モデルです。現時点ではテキストと画像の入力のみに対応しています。 Step-1V-8k はコンテキスト長が 8k であることを意味します。
Step-2-16k
2024 年 7 月 4 日に、ステップ スターは、数兆のパラメータを持つ巨大な深層学習モデルである Step-2 モデルをリリースしました。これは、MoE 構造を採用し、数学、論理、プログラミング、知識、創造、マルチラウンドで優れたパフォーマンスを備えています。ダイアログなど、Step-2 の機能は GPT-4 に完全に近づいています。Step-2-16k はコンテキストの長さが 16k であることを意味します。
ERNIE-4.0-8k
ERNIE-4.0-8k は、Baidu が自社開発した主力の超大規模言語モデルであり、ERNIE3.5 と比較して、モデル機能の包括的なアップグレードを実現し、さまざまな分野の複雑なタスク シナリオに広く適用できます。 Baidu 検索プラグインは、質問と回答の情報の適時性を保証し、5K トークンの入力 + 2K トークンの出力をサポートします。
ERNIE-4.0-Turbo
2024年6月28日にリリースされ、2023年10月に発売されたErnie-4.0モデルのアップグレードバージョンです。Wenxinシリーズの最新のフラッグシップ大型モデルです。入力トークンの長さが2Kから128Kに増加し、AI-生成される画像の解像度は 2K から 128K に増加し、512×512 から 1024×1024 に増加し、生成速度と効果が大幅に向上します。
Deepseek-Chat
DeepSeek は、Deep Exploration 社が開発したモデルで、DeepSeek-V2 モデルをベースに、2,000 億のパラメータを持つ MoE モデルを統合した AI 技術製品であり、経済的なトレーニングと効率的な推論を特徴とし、128K コンテキストをサポートします。これはオープンソース モデルであり、その公式ダイアログ Web サイト/API は 32K コンテキストをサポートし、即時アクセス、優れた機能、低価格サービスを提供し、OpenAI API インターフェイスと互換性があるため、ユーザーにスムーズなエクスペリエンスをもたらします。
Deepseek-Coder
DeepSeek-Coder は、プログラミングの問題の説明を理解し、関連する解決策やコード スニペットを自動的に生成できるインテリジェントなコーディング支援ツールです。そのトレーニング データ量は最大 2T で、コードの 87% と英語や自然言語の 13% をカバーします。中国では、1B から 33B までのさまざまなモデルのバージョンがあり、さまざまな規模のプロジェクトのニーズを満たすことができます。
Doubao-pro-32k
Doubao Universal Model Pro は、ByteDance が独自に開発した大規模な言語モデルであり、参考 Q&A、要約、作成、テキスト分類、および推論をサポートする複雑なタスクの処理に適しています。 32k コンテキスト ウィンドウと微調整。
Spark Max
iFlytek Spark Cognitive Large Model は、iFlytek によってリリースされた大規模なモデルであり、数千億のパラメータを備えた主力の大規模言語モデルであり、そのコア機能が完全にアップグレードされ、より強力な数学、中国語、コーディング、およびマルチモーダル機能が追加されています。数学的計算や論理的推論などの効果に対する高度な要件が必要なビジネス シナリオに適しています。
Spark Ultra
最も強力な大規模言語モデル バージョン。テキスト生成、言語理解、知識の質問と回答、論理的推論、数学的能力の点で GPT 4-Turbo を上回り、ネットワーク検索リンクを最適化し、より正確な回答を提供します。
Spark Lite
Spark Liteは軽量の大規模言語モデルで、応答速度が高く、低算力推論やモデル精調などのカスタマイズシナリオに適しています。企業製品の迅速な検証需要を満たすことができます。
SenseChat-5
2024 年 4 月 23 日に SenseTime Group によってリリースされた最新の大規模言語モデルは、最大 6,000 億のパラメータ量を持つハイブリッド エキスパート アーキテクチャ (MoE) を使用し、200K のコンテキスト ウィンドウをサポートします。
SenseChat-Turbo
こちらもSenseTime Technologyから発売されているモデルで、1通話あたりの料金は0.005元とSenseChat-5よりも安価です。
abab6.5s
Xiyu Technology MiniMax は、2024 年 4 月 17 日に abab6.5 シリーズ モデルを正式に発売しました。abab6.5 シリーズには、abab6.5 と abab6.5s の 2 つのモデルが含まれており、より効率的で、200k トークンのコンテキスト長をサポートします。 1 秒間に約 30,000 ワードのテキストを処理できます。
Hunyuan-Lite
百億パラメータ規模、Hunyuan-腾讯混元大模型は腾讯が全チェーンで自主開発した兆パラメータ大規模モデルです。Hunyuan-LiteはMOE構造にアップグレードされ、コンテキストウィンドウは256kとなり、NLP、コード、数学、業界などの多数の評価セットで多くのオープンソースモデルをリードしています。
Hunyuan-Standard
数千億パラメータ規模で、より最適なルーティング戦略を採用し、同時に負荷分散と専門家の収束問題を緩和しました。長文に関しては、大海捜針指標が99.9%に達しました。hunyuan-standard-32Kは比較的コストパフォーマンスが高く、効果と価格のバランスを取りつつ、長文入力の処理を実現できます。hunyuan-standard-256Kは長さと効果においてさらなる breakthrough を達成し、入力可能な長さを大幅に拡張しました。
Hunyuan-Pro
プロフェッショナルモデル
farui-plus
Alibaba Cloud によって発売された大規模な法的モデル製品は、Tongyi Qianwen の大規模モデルに基づいており、法的インテリジェントな対話、法的文書の生成、法的知識の検索、補助的な事例分析を備えています。 、法的テキストの読み取りと分析、契約条項のレビュー、その他の機能。
XuanYuan-70B
Xuanyuan は、中国初のオープンソースの 1,000 億レベルの大規模中国語対話モデルです。また、中国の金融分野に最適化された初の 1,000 億レベルのオープンソースの大規模対話モデルでもあります。対話大モデル) は Du Xiaoman Financial によって開発されました。中国の金融対話の大規模モデルで、財務シナリオにおける長文ビジネスをターゲットにしており、コンテキストの長さを 8k および 16k に拡張し、中国語と英語の両方で普遍的な機能を維持しながら財務理解を大幅に向上させます。
ChatLaw
北京大学情報工学院のYuan Li氏の研究グループと北京大学・土晨AIGC共同研究室が共同でリリースした大規模な中国法モデルは、2023年7月にリリースされる予定である。これは、中国のさまざまな法律条項、実際の事例、事例に基づいてトレーニングされている。作成された大規模な法的モデルは、AI を使用して、法的契約書の作成、事件の紹介、条項の説明、司法問題の相談などのシナリオを実現できます。
Qwen2-Math-72B
アリババは 8 月 8 日に Qwen2-Math シリーズのモデルを再度オープンソース化しました。これは数学的推論機能に焦点を当てたモデルであり、Qwen2-Math-72B が GPT-4o、Claude- などの最先端のモデルを上回ることが示されました。 3.5-Sonnet、Gemini-1.5-Pro、Llama-3.1-405B。
grok-2
xAI公司は2024年8月13日にGrok-2とGrok-2 miniの2つのバージョンを含む先進的人工知能言語モデルGrok-2を発表しました。このモデルはチャット、コード生成、推論などの機能を持ち、3140億個のパラメータを持ち、現在までで最大のオープンソースモデルです。これにより、複雑なタスク処理や高品質テキスト生成能力が向上しています。
pplx-8b-online
Perplexity AI公司が提供するPPLX-8B-Onlineは、大規模言語モデル(LLM)に基づくオンラインモデルで、リアルタイムのインターネットデータを利用して即時の正確なクエリ応答を提供します。APIを通じてアクセス可能で、クエリに対する即時の応答を実現しています。
pplx-70b-online
PPLX-70B-OnlineはLlama2-70Bベースモデルに基づくオンラインモデルで、リアルタイムにインターネットデータにアクセスして最新の情報を提供します。Perplexity Labsの内部検索インフラストラクチャを利用し、高品質で信頼性の高いウェブサイトを優先的にアクセスし、先進的なランキングメカニズムを使用して関連性の高い情報をリアルタイムに提示します。
オープンソースモデル
Llama3.2-90B
Metaの最先端モデルであるLlama3.2-90Bは、2024年9月25日に正式に発表され、常識、長文生成、多言語翻訳、コード生成、数学、高度な推論などに優れています。また、画像推論機能も導入され、画像理解や視覚推論タスクを完了することができます。
Llama3.2-11B
Llama3.2-11Bはコンテンツ作成、対話型人工知能、言語理解、視覚推論が必要な企業アプリケーションに適しています。このモデルはテキスト要約、感情分析、コード生成、指令実行などに優れており、画像推論能力も増加しています。用例は90Bバージョンと類似しており、画像タイトル、画像テキスト検索、視覚基礎、視覚問題解答、視覚推論、およびドキュメント視覚問題解答などが含まれます。
Qwen2.5-72B
Qwen2.5-72Bは2024年9月19日に発表され、最大128Kのコンテキスト長をサポートし、最大8Kのコンテンツを生成できます。29種以上の言語をサポートし、18Tトークンのデータで予備学習されています。Qwen2と比較して全体的な性能が18%以上向上しており、より多くの知識と強力なプログラミングおよび数学能力を持ち、工業レベルや研究レベルのシナリオに適しています。
Qwen2.5-Coder-7B
Qwen2.5-Coderはコード生成およびプログラミング関連タスクに特化した大規模言語モデルの最新シリーズです。Transformerベースのアーキテクチャを採用し、グループクエリ注意力(GQA)や双ブロック注意力(DCA)などの特定の最適化技術を導入して推論性能と長文処理能力を最適化しています。
Llama3.1-405B
Llama3 は、Meta の最新のオープンソース大規模言語モデルであり、合成データ、評価または蒸留としての大規模言語モデル (LLM) に適しており、128K トークンのコンテキスト長と 8 つの言語をサポートしており、モデル出力を使用して他の LLM を改善できます。 。
Llama3.1-70B
70B は大規模な AI ネイティブ アプリケーションに適しており、70 億のパラメータを持ち、8 つの言語でのテキスト生成をサポートし、最適化された Transformer アーキテクチャを採用し、教師付き微調整とヒューマン フィードバック強化学習を通じてさらに最適化され、有用性と利便性に対する人間のニーズに応えます。安全性の好み。
Llama3.1-8B
8B は、複数言語環境で自然言語処理および対話システムを開発する必要がある研究者および開発者に適しています。8B サイズのバージョンが含まれており、8 つの言語をサポートし、多言語対話のユースケースに最適化されています。
Llama3-70B
Llama3 は 2024 年 4 月 18 日に Meta によってリリースされました。8B と 70B の 2 つのバージョンがあり、70B には 700 億のパラメータがあり、この複雑さの増加により、コード生成やクリエイティブ ライティングなどのさまざまな NLP タスクのパフォーマンスが向上します。これには、より多くのコンピューティング リソースが必要であり、十分なメモリと GPU 機能を備えた強力なハードウェア セットアップが必要です。
Llama3-8B
Llama3-8B モデルは、パフォーマンスとリソース要件のバランスをとっており、80 億のパラメーターを備えているため、比較的軽量でありながら、優れた言語理解機能と生成機能を備えており、適度なハードウェア構成での使用に適しています。
Mistral-Large-2
2024 年 7 月 26 日、フランスの AI スタートアップ Mistral AI は、1,230 億のパラメータを持ち、特にコードと数学的推論に優れた最新モデル Mistral-Large-2 をリリースしました。128k のコンテキスト ウィンドウを備え、数十の自然言語をサポートしています。 80 以上のプログラミング言語、特に MMLU では、事前トレーニングされたバージョンの精度は 84.0% に達しました。
Mixtral-8x7B
Mistral-8x7B は、7B パラメータの 8 つのエキスパートと効率的なスパース処理を備えた最初のオープンソース MoE 大型モデルです。このモデルは、ルーティング ネットワークを介して各層の 8 つのフィードフォワード ブロック (つまり「エキスパート」) で構成されます。このアーキテクチャにより、モデルは計算コストを低く抑えながら、より多くのパラメーターにアクセスできるようになります。
Gemma-7B
Gemma は、Google によって開発された大規模な AI モデルであり、70 億のパラメータを持ち、コンシューマ グレードの GPU および TPU に最適なパフォーマンスを備えています。ミストラルを含むモデル。
Gemma2-9B
Gemma2 は、Google が 2024 年 6 月にリリースした最新のオープンソース モデルです。Gemma2 は、第 1 世代と比較して推論性能と効率が向上し、セキュリティ面でも同様の製品の中で大幅な進歩を遂げています。 Llama3-8B や他の同規模のオープンソース モデルを上回り、主導的な地位にあります。
Gemma2-27B
Gemma2-27B はクラス最高のパフォーマンスを備えており、より大きなモデルにも挑戦できます。27B モデルを使用すると、単一の Google Claude TPU ホストまたは NIVIDIA H100 GPU でフル精度で効率的に推論を実行できるため、高いパフォーマンスを維持しながらパフォーマンスが大幅に向上します。コストを削減します。
Command R+
Cohere が発表した最新モデルは、Command R シリーズの中で最も強力なモデルで、合計 1,040 億個のパラメータを備えています。その強力な生成機能と高度な検索機能が特徴で、特定のモデルに基づくことができます。コンテキスト情報を利用して、外部の知識ソースから関連するコンテンツを取得し、生成された応答に統合して、モデルの「幻覚」問題を効果的に軽減します。
Command R
Command-R には 35B のモデル パラメーターがあり、強力な言語理解および生成機能を提供します。このモデルは業界標準を大幅に上回る最大 128K のコンテキスト ウィンドウをサポートし、より複雑なテキストを処理し、より一貫したコンテンツを生成できます。
Qwen2-72B
2024 年 6 月 7 日にリリースされたこのモデルは、Alibaba Cloud によって開発された Tongyi Qianwen 大型モデル シリーズの 1 つであり、このモデルの 72B 命令微調整バージョンでは、最大 128k トークンまでのコンテキスト長のサポートが強化されています。質の高い機能には、トレーニング コーパス、強力なパフォーマンス、より包括的な語彙リストが含まれます。
Qwen2-7B
Qwen2 は、Alibaba Tongyi によって開始された新世代の多言語事前トレーニング モデルで、0.5B、1.5B、7B、57B-A14B、72B の 5 つのサイズが含まれており、その中で Qwen2-7B は最大で長いコンテキスト長をサポートします。中国語と英語に基づいた 128,000 のトークンに、27 言語の高品質のトレーニング データが追加されています。
Llama-3.1-nemotron
NVIDIAが開発した一連の大規模言語モデルであり、Llama-3.1-70Bをベースに開発されました。新しいニューラルアーキテクチャ探索(NAS)手法を採用し、高精度かつ効率的なモデルを構築しました。高負荷の下でも、このモデルはNVIDIA H100 GPU 1基で動作可能であり、より使いやすく、より経済的です。