SiliconValleyWangChua
vip

Inti dari model bahasa besar adalah untuk secara paksa membangun nilai yang konsisten sendiri berdasarkan data input yang ada. Halusinasi (hallucination) dapat dilihat sebagai manifestasi alami dan perpanjangan konsistensi diri. Banyak penemuan ilmiah baru dibuat justru karena mereka menghadapi "kesalahan" di alam yang tidak dapat dijelaskan oleh teori-teori yang ada, dan mereka tidak dapat konsisten dengan diri sendiri, sehingga mereka harus meninggalkan teori-teori lama. Jadi ini kira-kira menjelaskan mengapa, sampai saat ini, tidak ada model bahasa besar (dengan data sebanyak itu) yang mampu membuat penemuan ilmiah baru sendiri, karena model itu sendiri tidak memiliki kemampuan untuk menilai benar dan salah.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Bagikan
Komentar
0/400
Tidak ada komentar
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)