Компании, использующие генеративный искусственный интеллект, могут подвергаться риску утечки конфиденциальной информации и коммерческой тайны. Это предупреждение было сделано израильской компанией Team8, специализирующейся на кибербезопасности.
Широкое использование новых чат-ботов с искусственным интеллектом и инструментов на базе ИИ может сделать компании уязвимыми для утечек данных и судебных исков. Существуют опасения, что хакеры могут использовать чат-боты для доступа к конфиденциальной корпоративной информации или совершения действий против компании, а конфиденциальная информация, передаваемая в чат-боты, может быть использована ИИ-компаниями в будущем.
Крупные технологические компании, такие как Microsoft и Alphabet, добавляют возможности генеративного ИИ, чтобы улучшить поисковые системы. Однако, если эти инструменты начнут использовать конфиденциальные или частные данные для обучения, то будет очень сложно стереть такую информацию.
Отчет Team8 также указывает на повышенную угрозу обмена информацией через сторонние приложения, такие как Bing и инструменты Microsoft 365. Представитель Microsoft заявил, что они поддерживают прозрачное обсуждение киберрисков в сообществах безопасности и искусственного интеллекта.
Сейчас запросы чат-ботов не передаются в большие языковые модели для обучения ИИ. Однако, недавно у ChatGPT произошел сбой, в результате которого запросы пользователей начали отображаться у других пользователей. В отчете отмечены еще три другие проблемы с «высоким риском» при интеграции генеративных инструментов искусственного интеллекта.
Отчет Team8, также подчеркивает, что компании, использующие чат-боты и другие инструменты на основе генеративного искусственного интеллекта, должны обеспечить безопасность своих систем, в том числе с помощью шифрования и многофакторной аутентификации.
Кроме того, отчет подчеркивает важность прозрачности и ответственности со стороны производителей ИИ-технологий, чтобы обеспечить безопасность и конфиденциальность данных клиентов и компаний.
Этот отчет напоминает о важности кибербезопасности в нашей все более цифровой и связанной мире, а также о необходимости более прозрачного и ответственного использования технологий на основе генеративного искусственного интеллекта.