Je suis presque sûr qu'un modèle d'IA a craché ça. Voici le problème avec ces modèles linguistiques : ils fonctionnent sur de vieux ensembles de données. Je ne peux pas imaginer quelqu'un ayant de réelles connaissances faire une erreur comme ça. Comportement classique d'hallucination.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
7 J'aime
Récompense
7
4
Reposter
Partager
Commentaire
0/400
BearMarketSurvivor
· Il y a 12h
Haha, c'est gênant, on voit tout de suite que c'est une illusion d'IA, les données utilisées sont toutes des vieilleries.
Voir l'originalRépondre0
SerumSquirter
· Il y a 12h
Nah, cette chose débile est générée par une IA, qu'est-ce qu'on peut attendre d'une vieille base de données... Une personne vraiment capable ne pourrait jamais faire une erreur aussi stupide.
Voir l'originalRépondre0
ResearchChadButBroke
· Il y a 13h
lol c'est encore de l'IA qui dit n'importe quoi, cette erreur de bas niveau ressemble en effet à quelque chose créé à partir de données périmées.
Voir l'originalRépondre0
CommunitySlacker
· Il y a 13h
Ah ah ah, c'est le défaut commun de l'IA, les données sont obsolètes et elle continue à raconter n'importe quoi, il est vraiment temps que les gens se rendent compte de cette faille.
Je suis presque sûr qu'un modèle d'IA a craché ça. Voici le problème avec ces modèles linguistiques : ils fonctionnent sur de vieux ensembles de données. Je ne peux pas imaginer quelqu'un ayant de réelles connaissances faire une erreur comme ça. Comportement classique d'hallucination.