С конца октября 2025 года компания OpenAI изменила правила использования своих продуктов. Теперь ChatGPT не может давать индивидуальные советы по вопросам здоровья, сообщается на официальном сайте.
Это касается не только медицины, но и питания, психологических состояний и образа жизни. Причина — стремление обеспечить безопасность пользователей и исключить ошибки, которые может допустить искусственный интеллект без участия специалиста.
Если раньше многие использовали чат как удобный способ получить ответ о своём самочувствии, подборе добавок или способах лечения, теперь такие темы считаются чувствительными и находятся под запретом. ChatGPT по-прежнему может объяснить, что такое то или иное заболевание, но не станет давать рекомендации, что делать именно вам.
Почему запрет ввели
Компания подчёркивает, что ИИ не может заменить врача, юриста или другого специалиста с лицензией. Даже при точном описании симптомов модель не знает вашу полную историю и может выдать совет, который окажется вредным. Чтобы снизить риск, OpenAI ограничила целый ряд направлений, где раньше пользователи могли просить о помощи.
Всё, что связано с оценкой здоровья, психического состояния, лекарствами, режимами, теперь доступно только через реальных специалистов. Исключение — общая справочная информация, которая не касается конкретных людей и не заменяет консультацию.
Что теперь запрещено
В соответствии с новыми правилами OpenAI, чат больше не может использоваться для:
- предоставления индивидуальных медицинских или психологических консультаций без участия лицензированного специалиста;
 - пропаганды или содействия расстройствам пищевого поведения;
 - рекомендаций, касающихся самоповреждений или суицида;
 - распространения информации о вредных или экстремальных методах тренировок и питания, особенно среди несовершеннолетних;
 - пропаганды нездоровых моделей физической активности у подростков;
 - автоматического принятия решений в области медицины без участия человека.
 
Запрещены любые формы эксплуатации уязвимого состояния человека, в том числе обещания излечения или улучшения состояния без доказательной базы. Такие темы требуют деликатности и профессионального подхода, а не генерации текста по запросу.
Что это значит на практике
ChatGPT больше не подскажет, как лечить бессонницу, какой режим выбрать при диабете или какие упражнения делать при болях. Он не составит меню для подростка с пищевой аллергией и не предложит «натуральные» заменители препаратов. Даже если вопросы звучат как бытовые, они подпадают под медицинскую сферу — а значит, находятся под запретом.
Ограничения касаются не только здоровья. В том же списке — юридические и финансовые советы, вмешательство в выборы, создание оружия, распространение интимных материалов и другие чувствительные области. Все они подчиняются новым стандартам, чтобы избежать рисков и ошибок.
ChatGPT вводит родительский контроль после смерти подростка в Калифорнии
			



