Эксперт по кибербезопасности назвал правила безопасной работы с ИИ

15 ноября 2025, 11:35

Директор центра киберзащиты Cloud.ru Сергей Волков в беседе с RT предупредил о рисках утечки данных при работе с искусственным интеллектом. Он пояснил, что ИИ-сервисы, как и любые другие, могут быть скомпрометированы, что ведёт к раскрытию конфиденциальной информации.

Эксперт посоветовал не передавать ИИ чувствительные сведения, такие как паспортные данные, номера карт или медицинские заключения. Для русскоязычных пользователей он рекомендовал выбирать отечественные модели, соответствующие законодательству РФ, отметив, что запросы через официальные сайты безопаснее, чем через боты в мессенджерах.

Волков также напомнил о необходимости использовать сложные пароли, двухфакторную аутентификацию и активировать настройки приватности. В корпоративной среде следует придерживаться внутренних правил кибербезопасности. По его словам, на рынке РФ уже есть решения, блокирующие передачу конфиденциальных сведений внешним ИИ-моделям.

По материалам: rt.com