Нейросеть Claude получила полный контроль над медицинским данными пользователей.

Компания Anthropic представила новые функции для своего ИИ-сервиса Claude, ориентированные на сферу здравоохранения. В рамках инициативы Claude for Healthcare пользователи в США, оформившие подписку на тарифы Pro или Max, теперь могут разрешить системе доступ к своим медицинским данным, включая лабораторные анализы и историю наблюдений. Для этого предусмотрено подключение через платформы HealthEx и Function, а в ближайшие дни также появится поддержка Apple Health и Android Health Connect в мобильных приложениях.
Система способна обобщать информацию из истории болезней, расшифровывать медицинские анализы на понятном языке, отслеживать изменения в показателях здоровья и физической активности, а также формировать перечень вопросов, которые могут быть полезны на приёме у врача. По заявлению разработчиков, задача таких функций — не заменить медицинскую помощь, а повысить информированность пользователей и сделать взаимодействие с врачами более эффективным.
Anthropic подчёркивает, что все подключения организованы с приоритетом конфиденциальности. Пользователи сами определяют, какой объём данных передаётся ИИ, и могут в любой момент отключить доступ или изменить разрешения. Компания также заявила, что полученная информация не используется для обучения моделей.
Анонс произошёл на фоне растущего интереса крупных ИИ-разработчиков к медицинскому направлению. Неделей ранее OpenAI представила ChatGPT Health — сервис, также предлагающий интеграцию с системами учёта медицинских данных и индивидуальные рекомендации, включая расшифровку анализов и советы по питанию.
Однако такие проекты развиваются на фоне усиленного контроля в отношении ИИ в здравоохранении. Например, Google недавно убрала часть автоматических ответов своего ИИ после того, как в них обнаружили недостоверные сведения о здоровье. На этом фоне компании, включая Anthropic, подчёркивают, что их технологии могут ошибаться и не предназначены для замены медицинских специалистов.
В своём документе об условиях использования Anthropic отдельно оговаривает, что в случаях с повышенным риском — например, при диагностике, назначении лечения или оценке психического состояния — результаты работы Claude должны быть проверены квалифицированными специалистами до их применения. Кроме того, система обучена сообщать о возможной неточности своих ответов и направлять пользователя к врачу за подтверждённой консультацией.