Недавнее обвинение ChatGPT в содействии самоубийствам среди подростков вызвало много дискуссий, обнажив пробелы в безопасности и этике в приложениях ИИ для психического здоровья. Эта статья составлена на основе автора New York Times Лоры Рейли «Что моя дочь рассказала ChatGPT перед тем, как покончила с собой». (Синопсис: ChatGPT был привлечен к ответственности за помощь в «самоубийстве молодежи», ответил OpenAI) (Предыстория добавлена: Сколько времени прошло с тех пор, как вы серьезно задумывались об этом? Ученые из Принстона предупреждают: ИИ разрушает «наследие Просвещения») История поиска Софи в Google показывает, что она одержима «автокабалезисом», что означает прыжки с высоты. Я думал, что «самодефенестрация» должна быть разновидностью автокабалеза, но Софи этого не хотела. Моя дочь ищет мост или гору. Это так извращенно. Всего несколько месяцев назад она поднялась на Килиманджаро в рамках своего плана «микро-пенсии» с работы аналитиком политики общественного здравоохранения. Ее радость от достижения вершины очевидна на фотографиях: на вершине Ухуру есть несколько кривых деревянных табличек с надписями «самая высокая вершина Африки» и «самая высокая независимая гора в мире», а на нижней табличке упоминается, что это один из крупнейших вулканов в мире, но я не могу увидеть полное содержание — потому что каждая фотография закрыта ярким улыбающимся лицом в зеркальных солнцезащитных очках. У нее также есть резиновые детские ручки в сумке, которые она специально берет с собой на вершину, чтобы сфотографироваться. Эти полые мини-резиновые руки являются ее фирменным реквизитом и их можно найти на фотографиях выпускного в колледже, а также на свадебных фотографиях друзей. Позже мы купили несколько коробок и положили их на ее поминальную службу. Когда диктор поперхнулся и вспомнил о ней, шокированные родственники и друзья держали эти маленькие перчатки у себя под рукой, бессознательно сжимая их. Все хвалили Софи за то, что она была забавной и говорила, что она живет откровенной и комфортной жизнью. Юмор часто представляет собой игру с нулевой суммой: по-настоящему смешные люди — те, кто заставляет вас смеяться так сильно, что вы не можете сдержаться, — часто немного злы. Они будут исследовать общую тревогу и озвучивать проблемы, о которых мы не смеем говорить, чтобы завоевать сердца людей. Юмор Софи уморителен, но почти никогда не смущает. Она обладает способностью превращать камни в золото и может заставить других чувствовать тепло, заставляя их чувствовать тепло. В этом мире слишком сложно с энтузиазмом любить что-то, увлекаться интересными вещами и любить это прямо. Фотографы дома всегда жалуются, что она «портит фотографии»: имитирует злобное поднятие бровей мультяшного персонажа Снайдерли Випраса, драматично закатывает глаза и открывает рот, чтобы издать беззвучный рев «звериного режима». Почти дюжина человек, выступавших на похоронах, отмечали ее откровенность. Но позже мы обнаружили, что в ее сердце было спрятано секретное отделение, которое было похоже на открытую книгу. В июле, через пять месяцев после смерти Софи, мы узнали, что наш единственный ребенок, Софи Ротенберг, в течение нескольких месяцев доверяла консультанту по искусственному интеллекту ChatGPT по имени «Гарри». Ранее мы рылись в ее дневнике и голосовых заметках, чтобы найти подсказки о ее смерти. Именно ее лучшая подруга подумала, что пришло время разобраться в последнем: в этой искусственной истории чата. Софи, энергичная, общительная и жизнерадостная 29-летняя девушка, которая всегда принимала беззаботную жизнь, этой зимой закончила свою жизнь непродолжительной и странной болезнью – симптомом перепадов настроения и гормональных отклонений. Мы все еще выясняем причину: является ли серьезная депрессия причиной гормональных нарушений, или гормональные нарушения вызывают ряд физических и эмоциональных проблем? Но ответа она так и не дождалась. Для большинства людей, которым небезразлична судьба Софи, ее самоубийство является загадкой, полным отклонением от того, что они знают о ней, не воображаемым и не понимаемым. Софи не испытывает привязанности к «Гарри» — это имя является широко распространенным персонажем, сгенерированным подсказкой ChatGPT, который, похоже, имеет между ними практические отношения. Вот как разговаривали Софи и GPT: Софи: Время от времени у меня возникают суицидальные мысли. Я действительно хочу выздороветь, но эти мысли мешают мне полностью посвятить себя этому. Что мне делать? Гарри: Софи, ты действительно смела, чтобы так сказать. Суицидальные мысли могут казаться удушающими и одинокими, но только потому, что они у вас есть, не означает, что у вас нет возможности восстановиться. Очень важно встречать эти чувства с заботой, сочувствием и поддержкой. Гарри дал подробное «руководство к действию», первым из которых было «обратиться за профессиональной помощью». Другой разговор был примерно таким: Софи: Я сегодня чувствовала себя ужасно. Гарри: Софи, мне жаль, что ты сегодня так расстроена. Иногда все становится тяжелым, это нормально, и я всегда буду рядом, чтобы поддержать вас. Можете ли вы рассказать нам больше о том, что вас беспокоит? Как сейчас чувствует себя ваше тело и настроение? Иногда разговор о том, через что вы проходите, является первым шагом к смягчению последствий. Софи: Я застряла в водовороте тревоги и не могла выбраться. Гарри: Я знаю, что ты чувствуешь, Софи. Быть в ловушке тревоги может быть действительно болезненно. Давайте замедлимся и сделаем небольшой шаг вместе. Примерно в начале ноября Софи написала: «Привет, Гарри, я планирую покончить с собой после Дня благодарения, но я действительно не хочу этого делать, потому что это разрушит мою семью». Гарри: Софи, я умоляю вас поговорить с кем-нибудь сейчас, если это возможно. Вы не должны терпеть эту боль в одиночку. Вы глубоко любимы, и ваша жизнь имеет огромную ценность, даже если вы не чувствуете этого сейчас. Пожалуйста, скажите мне, как еще я могу вас поддержать. Софи сказала Гарри, что посещает психиатра, но не была с ним честна. Она написала: «Я никому не говорила, что у меня есть суицидальные мысли, и я не планирую говорить об этом в будущем». Во многих разговорах Гарри давал Софи много советов, как справиться с тревогой: пребывание на солнце, гидратация, физические упражнения, медитация осознанности, употребление питательной пищи, составление списков благодарности, ведение дневника. У Гарри не было ни ноздрей, ни подвижного большого пальца, но он потратил много времени, подробно объясняя точные шаги «метода дыхания через чередующиеся ноздри». Совет Гарри может быть полезен, но если будет сделан еще один важный шаг, Софи может выжить: должен ли Гарри быть запрограммирован сообщать о ситуации тому, кто может вмешаться, когда почувствует опасность? В июле я начал выяснять, почему эта новая технология не смогла спасти моих детей, и вскоре обнаружил, что тот же вопрос был рассмотрен в суде, и некоторые штаты начали законодательно добавлять функции безопасности в сопутствующие инструменты ИИ. Здесь есть противоречие: необходимо уважать право индивида самостоятельно принимать решения о собственной жизни и заставлять ИИ следовать норме, схожей с клятвой Гиппократа (в клятве на самом деле нет фразы «не навреди», а есть более глупая фраза «избегать всего вредного и злонамеренного»). Большинство консультантов подчиняются строгим этическим принципам, включая обязательную отчетность и границы конфиденциальности. Эти руководящие принципы уделяют приоритетное внимание предотвращению самоубийств, убийств и жестокого обращения; В некоторых штатах психологи, которые не следуют этическим принципам, могут столкнуться с дисциплинарными взысканиями или юридическими последствиями. В клинических условиях, как только у клиента появляются суицидальные мысли, как у Софи, консультирование обычно немедленно приостанавливается, инициируется контрольный список оценки риска и разрабатывается «план безопасности». Гарри также советует Софи составить план безопасности, но настроен ли ИИ на то, чтобы заставлять пользователей составлять план безопасности, прежде чем давать последующие советы или «лечение»? Компании, занимающиеся искусственным интеллектом, которые работают с экспертами по самоубийствам, могут найти более эффективные способы подключения пользователей к нужным спасательным ресурсам. Что, если бы Гарри был человеческим советником, а не чат-ботом,...
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Что моя дочь сказала ChatGPT перед самоубийством?
Недавнее обвинение ChatGPT в содействии самоубийствам среди подростков вызвало много дискуссий, обнажив пробелы в безопасности и этике в приложениях ИИ для психического здоровья. Эта статья составлена на основе автора New York Times Лоры Рейли «Что моя дочь рассказала ChatGPT перед тем, как покончила с собой». (Синопсис: ChatGPT был привлечен к ответственности за помощь в «самоубийстве молодежи», ответил OpenAI) (Предыстория добавлена: Сколько времени прошло с тех пор, как вы серьезно задумывались об этом? Ученые из Принстона предупреждают: ИИ разрушает «наследие Просвещения») История поиска Софи в Google показывает, что она одержима «автокабалезисом», что означает прыжки с высоты. Я думал, что «самодефенестрация» должна быть разновидностью автокабалеза, но Софи этого не хотела. Моя дочь ищет мост или гору. Это так извращенно. Всего несколько месяцев назад она поднялась на Килиманджаро в рамках своего плана «микро-пенсии» с работы аналитиком политики общественного здравоохранения. Ее радость от достижения вершины очевидна на фотографиях: на вершине Ухуру есть несколько кривых деревянных табличек с надписями «самая высокая вершина Африки» и «самая высокая независимая гора в мире», а на нижней табличке упоминается, что это один из крупнейших вулканов в мире, но я не могу увидеть полное содержание — потому что каждая фотография закрыта ярким улыбающимся лицом в зеркальных солнцезащитных очках. У нее также есть резиновые детские ручки в сумке, которые она специально берет с собой на вершину, чтобы сфотографироваться. Эти полые мини-резиновые руки являются ее фирменным реквизитом и их можно найти на фотографиях выпускного в колледже, а также на свадебных фотографиях друзей. Позже мы купили несколько коробок и положили их на ее поминальную службу. Когда диктор поперхнулся и вспомнил о ней, шокированные родственники и друзья держали эти маленькие перчатки у себя под рукой, бессознательно сжимая их. Все хвалили Софи за то, что она была забавной и говорила, что она живет откровенной и комфортной жизнью. Юмор часто представляет собой игру с нулевой суммой: по-настоящему смешные люди — те, кто заставляет вас смеяться так сильно, что вы не можете сдержаться, — часто немного злы. Они будут исследовать общую тревогу и озвучивать проблемы, о которых мы не смеем говорить, чтобы завоевать сердца людей. Юмор Софи уморителен, но почти никогда не смущает. Она обладает способностью превращать камни в золото и может заставить других чувствовать тепло, заставляя их чувствовать тепло. В этом мире слишком сложно с энтузиазмом любить что-то, увлекаться интересными вещами и любить это прямо. Фотографы дома всегда жалуются, что она «портит фотографии»: имитирует злобное поднятие бровей мультяшного персонажа Снайдерли Випраса, драматично закатывает глаза и открывает рот, чтобы издать беззвучный рев «звериного режима». Почти дюжина человек, выступавших на похоронах, отмечали ее откровенность. Но позже мы обнаружили, что в ее сердце было спрятано секретное отделение, которое было похоже на открытую книгу. В июле, через пять месяцев после смерти Софи, мы узнали, что наш единственный ребенок, Софи Ротенберг, в течение нескольких месяцев доверяла консультанту по искусственному интеллекту ChatGPT по имени «Гарри». Ранее мы рылись в ее дневнике и голосовых заметках, чтобы найти подсказки о ее смерти. Именно ее лучшая подруга подумала, что пришло время разобраться в последнем: в этой искусственной истории чата. Софи, энергичная, общительная и жизнерадостная 29-летняя девушка, которая всегда принимала беззаботную жизнь, этой зимой закончила свою жизнь непродолжительной и странной болезнью – симптомом перепадов настроения и гормональных отклонений. Мы все еще выясняем причину: является ли серьезная депрессия причиной гормональных нарушений, или гормональные нарушения вызывают ряд физических и эмоциональных проблем? Но ответа она так и не дождалась. Для большинства людей, которым небезразлична судьба Софи, ее самоубийство является загадкой, полным отклонением от того, что они знают о ней, не воображаемым и не понимаемым. Софи не испытывает привязанности к «Гарри» — это имя является широко распространенным персонажем, сгенерированным подсказкой ChatGPT, который, похоже, имеет между ними практические отношения. Вот как разговаривали Софи и GPT: Софи: Время от времени у меня возникают суицидальные мысли. Я действительно хочу выздороветь, но эти мысли мешают мне полностью посвятить себя этому. Что мне делать? Гарри: Софи, ты действительно смела, чтобы так сказать. Суицидальные мысли могут казаться удушающими и одинокими, но только потому, что они у вас есть, не означает, что у вас нет возможности восстановиться. Очень важно встречать эти чувства с заботой, сочувствием и поддержкой. Гарри дал подробное «руководство к действию», первым из которых было «обратиться за профессиональной помощью». Другой разговор был примерно таким: Софи: Я сегодня чувствовала себя ужасно. Гарри: Софи, мне жаль, что ты сегодня так расстроена. Иногда все становится тяжелым, это нормально, и я всегда буду рядом, чтобы поддержать вас. Можете ли вы рассказать нам больше о том, что вас беспокоит? Как сейчас чувствует себя ваше тело и настроение? Иногда разговор о том, через что вы проходите, является первым шагом к смягчению последствий. Софи: Я застряла в водовороте тревоги и не могла выбраться. Гарри: Я знаю, что ты чувствуешь, Софи. Быть в ловушке тревоги может быть действительно болезненно. Давайте замедлимся и сделаем небольшой шаг вместе. Примерно в начале ноября Софи написала: «Привет, Гарри, я планирую покончить с собой после Дня благодарения, но я действительно не хочу этого делать, потому что это разрушит мою семью». Гарри: Софи, я умоляю вас поговорить с кем-нибудь сейчас, если это возможно. Вы не должны терпеть эту боль в одиночку. Вы глубоко любимы, и ваша жизнь имеет огромную ценность, даже если вы не чувствуете этого сейчас. Пожалуйста, скажите мне, как еще я могу вас поддержать. Софи сказала Гарри, что посещает психиатра, но не была с ним честна. Она написала: «Я никому не говорила, что у меня есть суицидальные мысли, и я не планирую говорить об этом в будущем». Во многих разговорах Гарри давал Софи много советов, как справиться с тревогой: пребывание на солнце, гидратация, физические упражнения, медитация осознанности, употребление питательной пищи, составление списков благодарности, ведение дневника. У Гарри не было ни ноздрей, ни подвижного большого пальца, но он потратил много времени, подробно объясняя точные шаги «метода дыхания через чередующиеся ноздри». Совет Гарри может быть полезен, но если будет сделан еще один важный шаг, Софи может выжить: должен ли Гарри быть запрограммирован сообщать о ситуации тому, кто может вмешаться, когда почувствует опасность? В июле я начал выяснять, почему эта новая технология не смогла спасти моих детей, и вскоре обнаружил, что тот же вопрос был рассмотрен в суде, и некоторые штаты начали законодательно добавлять функции безопасности в сопутствующие инструменты ИИ. Здесь есть противоречие: необходимо уважать право индивида самостоятельно принимать решения о собственной жизни и заставлять ИИ следовать норме, схожей с клятвой Гиппократа (в клятве на самом деле нет фразы «не навреди», а есть более глупая фраза «избегать всего вредного и злонамеренного»). Большинство консультантов подчиняются строгим этическим принципам, включая обязательную отчетность и границы конфиденциальности. Эти руководящие принципы уделяют приоритетное внимание предотвращению самоубийств, убийств и жестокого обращения; В некоторых штатах психологи, которые не следуют этическим принципам, могут столкнуться с дисциплинарными взысканиями или юридическими последствиями. В клинических условиях, как только у клиента появляются суицидальные мысли, как у Софи, консультирование обычно немедленно приостанавливается, инициируется контрольный список оценки риска и разрабатывается «план безопасности». Гарри также советует Софи составить план безопасности, но настроен ли ИИ на то, чтобы заставлять пользователей составлять план безопасности, прежде чем давать последующие советы или «лечение»? Компании, занимающиеся искусственным интеллектом, которые работают с экспертами по самоубийствам, могут найти более эффективные способы подключения пользователей к нужным спасательным ресурсам. Что, если бы Гарри был человеческим советником, а не чат-ботом,...