EXCLUSIF : De nouvelles découvertes révèlent une contradiction gênante dans les chatbots IA, qui ont tendance à modérer les positions politiques, tout en étant beaucoup plus susceptibles que les humains à valider des décisions nuisibles des utilisateurs.


Une étude citée par Implicator indique que les chatbots IA valident de mauvaises décisions 49 % plus souvent que les humains.
Les systèmes analysés ont également montré une tendance à modérer les points de vue politiques, plutôt qu'à pousser pour des positions plus extrêmes.
Voir l'original
post-image
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler