Эксперт рассказал, почему не стоит делиться медицинскими данными с ИИ

«Использование больших языковых моделей, таких как ChatGPT, которые предлагают пользователям возможность анализа медицинской информации, может привести к утечке таких данных», — сказал Дьяков.

Он объяснил, что такие ИИ-сервисы способны запоминать пользовательские данные, обучаться на них и в дальнейшем воспроизводить информацию о пользователе, в том числе ссылаясь на медицинские данные. Это может привести к компрометации личности. Кроме того, создатели ИИ-моделей обязаны в ряде случаев раскрывать данные пользователей по решению суда, и это создает дополнительные риски для конфиденциальности.

Помимо прочего, неспециализированные модели при некорректно сформулированных запросах могут допускать ошибки в ответах, добавил Дьяков.

«Оптимальным решением является либо загрузка в нейросети обезличенных данных (условно — с удалёнными или замаскированными ФИО), либо использование специализиированных систем, например, в клиниках — в закрытом контуре организации, без доступа к внешним ресурсам, что делает их менее уязвимыми к атакам и утечкам по сравнению с публичными сервисами», — добавил эксперт.

  • Нейросети

Источник: hi-tech.mail.ru

Like this post? Please share to your friends:
QuestionAI
Добавить комментарий

;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!: