Ученые предложили систему оценки безопасности ИИ-приложений

Исследователи из Корнеллского университета предложили новую систему классификации ИИ-приложений для психического благополучия, чтобы помочь пользователям и разработчикам понять границы ответственности и безопасности этих инструментов. В условиях отсутствия жесткого государственного регулирования миллионы людей используют ChatGPT и аналогичные инструменты в качестве персональных терапевтов. Однако ученые предупреждают, что без четких стандартов нет никакой гарантии пользы, а риск причинения вреда остается высоким. Чтобы помочь пользователям и разработчикам ориентироваться в этой сфере, исследователи разработали модель из четырех аналогий. Они предлагают оценивать приложения по тому, гарантируют ли они конкретное облегчение симптомов или просто обещают общее улучшение самочувствия.

Ученые предложили систему оценки безопасности ИИ-приложений

Первая аналогия сравнивает ИИ с безрецептурным лекарством, которое предназначено для решения специфических проблем конкретных групп людей. Вторая модель — «пищевая добавка», направленная на общее поддержание тонуса; ученые призывают не путать такие инструменты с настоящими медикаментами и не заменять ими клиническое лечение. Третья аналогия уподобляет ИИ врачу первичного звена, который использует проверенные методики, например когнитивно-поведенческую терапию, и несет высокую ответственность. Четвертый вариант — «инструктор по йоге», предлагающий поддержку без жестких медицинских гарантий для тех, кто в целом здоров.

Несмотря на огромный потенциал ИИ в снижении стигматизации ментальных проблем и доступности поддержки, эксперты указывают на серьезные угрозы. Чат-боты, созданные для развлечения, могут подменять собой реальные человеческие отношения или заставлять людей откладывать визит к специалисту. Статистика пугает: еженедельно около миллиона человек выражают суицидальные мысли в беседах с ИИ. Для таких ситуаций исследователи требуют внедрения обязательных механизмов перенаправления пользователей к реальным врачам.

В ходе работы над проектом ученые столкнулись с этической дилеммой. Медицинские эксперты готовы допустить редкие риски ради пользы для большинства, по аналогии с сильными лекарствами. Специалисты по этике, напротив, настаивают на более высоких стандартах безопасности для ИИ, чтобы исключить вред даже для немногих. Сейчас авторы исследования работают над политикой, которая будет стимулировать компании не просто удерживать пользователя в приложении, а направлять его к живому общению и профессиональной помощи.

Опубликовано

Март, 2026

Категория

Новые технологии

Продолжительность чтения

1-2 минуты

Поделиться

Источник

Не пропустите самое важное о науке и здоровье!

Подпишитесь на рассылку и получайте самые важные новости прямо на вашу почту

Отправьте нам сообщение