Учёный ПНИПУ поделился советами по безопасному применению ИИ

Искусственный интеллект сегодня — верный помощник миллионов в учебе, работе и быту. Такие системы, как ChatGPT, ежедневно обрабатывают миллиарды запросов, а диалоги сохраняются разработчиками для совершенствования моделей. Однако не вся информация подходит для передачи чат-ботам. Специалист Пермского Политеха, Даниил Курушин, рассказал, какие данные стоит закрыть от ИИ, кто потенциально может к ним получить доступ и насколько можно доверять ответам нейросетей.
Сегодня нейросети прочно вошли в нашу цифровую жизнь. Статистика показывает: только ChatGPT ежедневно помогает почти 200 миллионам пользователей, обрабатывая свыше миллиарда запросов! Он полезен в творчестве, работе, учебе и повседневных делах. Однако доцент ПНИПУ, кандидат технических наук Даниил Курушин напоминает о важности осторожности в общении с ИИ.
Как нейросети работают с данными
Для улучшения работы системы ChatGPT сохраняет все истории диалогов. Каждой беседе присваивается уникальный ID, помогающий разработчикам анализировать контекст и совершенствовать алгоритмы.
Даниил Курушин обращает внимание: заявления интернет-сервисов о конфиденциальности не всегда соответствуют реальности. «Например, DuckDuckGo говорит о неприкосновенности данных пользователей, но практика порой иная. Проверить подобные заявления бывает сложно из-за коммерческой тайны», – отметил эксперт ПНИПУ.
Потенциальные риски и цифровые ловушки
Эксперт подчеркивает: обмен данными с ИИ не гарантирует абсолютной безопасности. Информацией из чатов могут заинтересоваться третьи лица, включая мошенников.
«Конфиденциальные сведения, передаваемые ИИ, могут стать добычей злоумышленников. Для этого они создают фишинговые чаты в мессенджерах, соцсетях, играх или используют иные нейросети», – пояснил Даниил Курушин.
Курушин напоминает о цифровых ловушках – мошенники добывают данные не только через крупные известные сервисы.
Какие данные держать в секрете от ChatGPT?
Эксперт ПНИПУ четко обозначил категории данных, которые нельзя доверять нейросетям:
- Личную информацию (паспорта, телефоны, адреса)
- Финансовые реквизиты (особенно банковские данные)
- Конфиденциальные коммерческие тайны
- Сведения, относящиеся к государственной тайне (их разглашение грозит серьезными последствиями)
Даже обычные бытовые беседы с ChatGPT могут раскрыть ваши интересы для анализа. Хотя, как отмечает Курушин, эту информацию часто собирают и другими способами: «Подобная практика обычна для поисковиков и соцсетей, поэтому здесь риск ниже, чем при передаче конфиденциальных данных».
Надежная защита и критический взгляд
Полную уверенность в сохранности информации дает лишь использование сервисов, развернутых на собственном оборудовании пользователя с правильно организованной сетевой защитой.
Кроме того, Даниил Курушин рекомендует подходить к ответам ИИ критически. «ChatGPT и другие модели лучше всего использовать в тех областях, где вы сами разбираетесь и можете оценить качество ответа. В иных случаях надежнее проверенная энциклопедия или мнение эксперта», – советует ученый, призывая к осознанному и осторожному взаимодействию с умными технологиями.
Источник: russian.rt.com





