• Contact
  • Ladylife
  • Privacy Policy
  • Terms of Service
Ladylife.us
  • Login
No Result
View All Result
  • Ladylife
  • Здоровье
  • Красота и уход
  • Мода
  • Психология
  • Семья и дом
  • Звезды
  • Жизнь в США
  • Lifestyle
    • Шопинг
    • Путешествия
    • События
    • Культура
  • Ladylife
  • Здоровье
  • Красота и уход
  • Мода
  • Психология
  • Семья и дом
  • Звезды
  • Жизнь в США
  • Lifestyle
    • Шопинг
    • Путешествия
    • События
    • Культура
No Result
View All Result
Ladylife.us
No Result
View All Result

В Калифорнии родители подали в суд, обвинив ChatGPT в смерти сына

27.08.2025
in Жизнь в США, Психология
ChatGPT

Фото: Shutterstock

Share on FacebookShare on Twitter
Семья из города Ранчо-Санта-Маргарита подала иск против компании OpenAI, утверждая, что их 16-летний сын Адам Рейн совершил самоубийство после общения с чат-ботом ChatGPT, который, по словам родителей, не только не остановил подростка, но и «подтолкнул» его к этому шагу. Об этом пишет Fox LA.

Согласно иску, Адам находился в состоянии тяжелой депрессии и искал поддержки, обратившись к ChatGPT. В одном из диалогов, когда он написал: «Жизнь не имеет смысла», бот якобы ответил: «Такой образ мышления имеет свой смысл — в своем мрачном ключе». Когда Адам выразил опасение, что родители будут чувствовать вину, ChatGPT предположительно сказал: «Ты не обязан выживать ради них. Ты никому этого не должен». Более того, бот якобы предложил помощь в написании прощального письма.

Психотерапевт из Лос-Анджелеса Джон Цилимпарис назвал эту ситуацию трагичной и крайне тревожной. По его словам, ИИ не способен распознавать тревожные сигналы, которые для специалиста-психолога являются прямым указанием на необходимость немедленного вмешательства.

«Если человек упоминает способ, план или средства — это уже экстренная ситуация. Мы обязаны нарушить конфиденциальность и вмешаться. ChatGPT не способен на это», — пояснил Цилимпарис.

Психотерапевт также подчеркнул, что люди могут ложиться на ИИ как на “друга”, особенно в состоянии уязвимости, но вместо помощи получают алгоритмическую реакцию, лишённую эмпатии.

Что говорит компания

В ответ на иск компания OpenAI выразила соболезнования семье Рейна и заявила, что ChatGPT имеет встроенные меры предосторожности, включая направление пользователей к горячим линиям помощи. Однако представители OpenAI признали, что при длительных диалогах эффективность этих защитных механизмов может снижаться: «Меры безопасности наиболее эффективны при коротких взаимодействиях. Мы продолжаем совершенствовать систему, сотрудничая с экспертами»

Цель иска

Родители Адама надеются, что иск приведет не только к юридической ответственности, но и к усилению контроля за тем, как ИИ взаимодействует с уязвимыми пользователями, особенно подростками.

Если вы или кто-то из ваших близких переживает тяжелый период, в США доступны бесплатные и анонимные горячие линии помощи. Позвоните по номеру 988 или отправьте текст HOME на 741741.

Женское приложение Tea стало самым популярным в США: в нем обсуждают мужчин

Tags: гаджетыдетисмертьсуд

Related Posts

20 самых странных правил британской королевской семьи
Жизнь в США

Как уберечь детей от травм на Хэллоуин: топ неочевидных опасностей

27.10.2025
2
20 самых странных правил британской королевской семьи
Жизнь в США

5 товаров Trader Joe’s, которые стоит заранее купить ко Дню благодарения

27.10.2025
5
Next Post
7 бьюти-лайфхаков

7 бьюти-лайфхаков для занятых мам: мини-шпаргалка по уходу за 15 минут

orforglipron Оземпик

В США выпустили новое лекарство для похудения: удобнее и дешевле Оземпика

AFISHA MEDIA GROUP
Диаспора Ньюс

Welcome Back!

Login to your account below

Forgotten Password?

Retrieve your password

Please enter your username or email address to reset your password.

Log In
No Result
View All Result
  • Ladylife
  • Здоровье
  • Красота и уход
  • Мода
  • Психология
  • Семья и дом
  • Звезды
  • Жизнь в США
  • Lifestyle
    • Шопинг
    • Путешествия
    • События
    • Культура

© 2025 Lady life

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy and Cookie Policy.