DailyNews
vip

IT House bugün AI modelinin kör yığın hacminin aslında daha iyi olmadığını belirten bir makale yayınladı.Daha çok eğitim verilerinin kalitesine bağlıdır.Microsoft kısa süre önce 1,3 milyar parametreli bir dil modeli phi-1 yayınladı. , "ders kitabı Düzeyinde" yüksek kaliteli veri seti eğitimi kullanılarak, "gerçek etkinin 100 milyar parametreli GPT 3.5'ten daha iyi olduğu" söyleniyor. Model, Transformer mimarisine dayanmaktadır ve Microsoft ekibi, eğitimi yalnızca 4'te tamamlamak için web'den "ders kitabı düzeyinde" veriler ve GPT-3.5 ile işlenen "mantıksal olarak titiz içerik" ve ayrıca sekiz Nvidia A100 GPU kullandı. günler Microsoft ekibi, modelin parametre sayısını artırmak yerine modelin eğitim veri setinin kalitesini artırmanın modelin doğruluğunu ve verimliliğini artırabileceğini söyledi ve bu nedenle phi-1 modelini eğitmek için yüksek kaliteli veriler kullandılar. . Testte phi-1 puanı %50,6'ya ulaştı ve bu, 175 milyar parametre ile GPT-3,5'ten (%47) daha iyi. Microsoft ayrıca phi-1'in HuggingFace'te açık kaynaklı olacağını ve Microsoft'un ilk kez küçük bir LLM geliştirmediğini, bundan önce GPT-4 sentetik verileri kullanılarak eğitilmiş 13 milyar parametreli Orca oluşturduğunu belirtti. Performans ayrıca ChatGPT'den daha iyidir.

View Original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Reward
  • Comment
  • Share
Comment
0/400
No comments
Trade Crypto Anywhere Anytime
qrCode
Scan to download Gate app
Community
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)