Le modèle de langage de grande taille consiste essentiellement à construire de force une vision cohérente sur la base des données d'entrée existantes. Les hallucinations ( peuvent être considérées comme une manifestation naturelle et une extension cohérente. De nombreuses nouvelles découvertes scientifiques sont précisément dues à une "erreur" rencontrée dans la nature qui ne peut être expliquée par les théories existantes, n'est pas cohérente, et donc doit abandonner les anciennes théories. Cela explique en gros pourquoi, jusqu'à présent, aucun modèle de langage de grande taille (avec autant de données) n'a pu faire de découvertes scientifiques nouvelles de manière spontanée, car le modèle lui-même n'a pas la capacité de juger du vrai ou du faux.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Le modèle de langage de grande taille consiste essentiellement à construire de force une vision cohérente sur la base des données d'entrée existantes. Les hallucinations ( peuvent être considérées comme une manifestation naturelle et une extension cohérente. De nombreuses nouvelles découvertes scientifiques sont précisément dues à une "erreur" rencontrée dans la nature qui ne peut être expliquée par les théories existantes, n'est pas cohérente, et donc doit abandonner les anciennes théories. Cela explique en gros pourquoi, jusqu'à présent, aucun modèle de langage de grande taille (avec autant de données) n'a pu faire de découvertes scientifiques nouvelles de manière spontanée, car le modèle lui-même n'a pas la capacité de juger du vrai ou du faux.