広場
ホーム
最新
注目
洞察
ライブストリーム
全て
マーケット
最新のトピック
ブロックチェーン
その他
チャット
暗号資産カレンダー
ニュース
Gateブログ
もっと
プロモーション
アナウンスメント
新規上場、イベント、アップグレードなどのお知らせ
準備金証明
Gate は100%準備金証明を約束します
初心者ガイド
ヘルプセンター
FAQ とヘルプガイドを見つける
Gate Learn
暗号投資について学ぶ
パートナー
チャンピオンと共に成長
ホーム
最新
注目
洞察
ポスト
DailyNews
2023-06-27 01:35:18
IT Houseは本日、AIモデルのブラインドヒープ量が実際には必ずしも優れているわけではなく、トレーニングデータの品質に大きく依存すると述べた記事を発表し、Microsoftは最近、13億個のパラメータを備えた言語モデルphi-1をリリースしたと述べた。 、「教科書レベル」の高品質なデータセットトレーニングを使用し、「実際の効果は1,000億パラメータのGPT 3.5よりも優れている」と言われています。このモデルは Transformer アーキテクチャに基づいており、Microsoft チームは Web からの「教科書レベルの」データと GPT-3.5 で処理された「論理的に厳密なコンテンツ」、および 8 つの Nvidia A100 GPU を使用して、わずか 4 時間でトレーニングを完了しました。日。 Microsoft チームは、モデルのパラメーターの数を増やすよりも、モデルのトレーニング データセットの品質を向上させることで、モデルの精度と効率が向上する可能性があると述べたため、高品質のデータを使用して phi-1 モデルをトレーニングしました。 。テストでは、phi-1 のスコアは 50.6% に達し、1,750 億個のパラメータを持つ GPT-3.5 (47%) よりも優れていました。 Microsoft はまた、phi-1 は次は HuggingFace でオープンソース化される予定であると述べており、Microsoft が小規模な LLM を開発するのはこれが初めてではなく、以前は GPT-4 合成データを使用してトレーニングされた 130 億パラメータの Orca を作成していました。パフォーマンスも ChatGPT より優れています。
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については
免責事項
をご覧ください。
報酬
いいね
コメント
共有
コメント
0/400
コメント
コメントなし
トピック
ETH Breaks $3600
53k 人気度
Gate Derivatives Volume Hits New High
21k 人気度
CPI Data Incoming
34k 人気度
4
Join Gate VIP to Win MacBook
31k 人気度
5
MicroStrategy Buys More Bitcoin
5k 人気度
6
BTC Hits New High
116k 人気度
7
My Gate Moments
29k 人気度
8
VIP Exclusive Airdrop Carnival
28k 人気度
9
Fed June Meeting Minutes
7k 人気度
10
Trump Tariff Hikes
18k 人気度
ピン
サイトマップ
IT Houseは本日、AIモデルのブラインドヒープ量が実際には必ずしも優れているわけではなく、トレーニングデータの品質に大きく依存すると述べた記事を発表し、Microsoftは最近、13億個のパラメータを備えた言語モデルphi-1をリリースしたと述べた。 、「教科書レベル」の高品質なデータセットトレーニングを使用し、「実際の効果は1,000億パラメータのGPT 3.5よりも優れている」と言われています。このモデルは Transformer アーキテクチャに基づいており、Microsoft チームは Web からの「教科書レベルの」データと GPT-3.5 で処理された「論理的に厳密なコンテンツ」、および 8 つの Nvidia A100 GPU を使用して、わずか 4 時間でトレーニングを完了しました。日。 Microsoft チームは、モデルのパラメーターの数を増やすよりも、モデルのトレーニング データセットの品質を向上させることで、モデルの精度と効率が向上する可能性があると述べたため、高品質のデータを使用して phi-1 モデルをトレーニングしました。 。テストでは、phi-1 のスコアは 50.6% に達し、1,750 億個のパラメータを持つ GPT-3.5 (47%) よりも優れていました。 Microsoft はまた、phi-1 は次は HuggingFace でオープンソース化される予定であると述べており、Microsoft が小規模な LLM を開発するのはこれが初めてではなく、以前は GPT-4 合成データを使用してトレーニングされた 130 億パラメータの Orca を作成していました。パフォーマンスも ChatGPT より優れています。