Хватит выдумывать себе диагнозы. Теперь ИИ сделает это за вас

leer en español

Хватит выдумывать себе диагнозы. Теперь ИИ сделает это за вас

Нейросеть Claude получила полный контроль над медицинским данными пользователей.

image

Компания Anthropic представила новые функции для своего ИИ-сервиса Claude, ориентированные на сферу здравоохранения. В рамках инициативы Claude for Healthcare пользователи в США, оформившие подписку на тарифы Pro или Max, теперь могут разрешить системе доступ к своим медицинским данным, включая лабораторные анализы и историю наблюдений. Для этого предусмотрено подключение через платформы HealthEx и Function, а в ближайшие дни также появится поддержка Apple Health и Android Health Connect в мобильных приложениях.

Система способна обобщать информацию из истории болезней, расшифровывать медицинские анализы на понятном языке, отслеживать изменения в показателях здоровья и физической активности, а также формировать перечень вопросов, которые могут быть полезны на приёме у врача. По заявлению разработчиков, задача таких функций — не заменить медицинскую помощь, а повысить информированность пользователей и сделать взаимодействие с врачами более эффективным.

Anthropic подчёркивает, что все подключения организованы с приоритетом конфиденциальности. Пользователи сами определяют, какой объём данных передаётся ИИ, и могут в любой момент отключить доступ или изменить разрешения. Компания также заявила, что полученная информация не используется для обучения моделей.

Анонс произошёл на фоне растущего интереса крупных ИИ-разработчиков к медицинскому направлению. Неделей ранее OpenAI представила ChatGPT Health — сервис, также предлагающий интеграцию с системами учёта медицинских данных и индивидуальные рекомендации, включая расшифровку анализов и советы по питанию.

Однако такие проекты развиваются на фоне усиленного контроля в отношении ИИ в здравоохранении. Например, Google недавно убрала часть автоматических ответов своего ИИ после того, как в них обнаружили недостоверные сведения о здоровье. На этом фоне компании, включая Anthropic, подчёркивают, что их технологии могут ошибаться и не предназначены для замены медицинских специалистов.

В своём документе об условиях использования Anthropic отдельно оговаривает, что в случаях с повышенным риском — например, при диагностике, назначении лечения или оценке психического состояния — результаты работы Claude должны быть проверены квалифицированными специалистами до их применения. Кроме того, система обучена сообщать о возможной неточности своих ответов и направлять пользователя к врачу за подтверждённой консультацией.