Довольно уверенно могу сказать, что это сгенерировала модель ИИ. Дело в том, что эти языковые модели работают на устаревших наборах данных. Не могу представить, чтобы кто-то с реальными знаниями допустил такую ошибку. Классическое поведение галлюцинаций.
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
8 Лайков
Награда
8
5
Репост
Поделиться
комментарий
0/400
MetaverseVagabond
· 1ч назад
Ха-ха, действительно, эта ошибка сразу же выглядит как иллюзия ИИ, тренировочные данные слишком стары, чтобы это исправить.
Посмотреть ОригиналОтветить0
BearMarketSurvivor
· 15ч назад
Ха-ха, это неловко, это явно иллюзия ИИ, данные использованы все старые и устаревшие.
Посмотреть ОригиналОтветить0
SerumSquirter
· 15ч назад
Нах, эта дерьмовая штука, наверное, сгенерирована ИИ, что может быть хорошего в том, что выдается из старой базы данных... Как может кто-то действительно способный допустить такую глупую ошибку?
Посмотреть ОригиналОтветить0
ResearchChadButBroke
· 15ч назад
лол, это снова искусственный интеллект говорит чушь, такая низкая ошибка действительно похоже, что она была жестко скомпилирована из просроченных данных.
Посмотреть ОригиналОтветить0
CommunitySlacker
· 15ч назад
Хахаха, это и есть общая проблема ИИ, данные устарели, а он продолжает нести чепуху, люди давно должны были заметить эту ошибку.
Довольно уверенно могу сказать, что это сгенерировала модель ИИ. Дело в том, что эти языковые модели работают на устаревших наборах данных. Не могу представить, чтобы кто-то с реальными знаниями допустил такую ошибку. Классическое поведение галлюцинаций.