SiliconValleyWangChua
vip

O modelo de linguagem gigante essencialmente visa construir uma perspectiva coerente com base nos dados de entrada existentes. A alucinação pode ser vista como uma expressão natural e extensão dessa coerência. Muitas descobertas científicas novas surgem precisamente porque encontram um 'erro' na natureza que não pode ser explicado pelas teorias existentes e não é coerente, portanto, as teorias antigas devem ser abandonadas. Isso em grande parte explica por que até agora, nenhum modelo de linguagem gigante (com tantos dados) pode fazer descobertas científicas inovadoras por conta própria, pois o modelo em si não tem a capacidade de julgar o certo do errado.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Compartilhar
Comentário
0/400
Sem comentários
  • Marcar
Faça trade de criptomoedas em qualquer lugar e a qualquer hora
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)