С каждым днём искусственный интеллект становится всё ближе к тому, чтобы стать неотъемлемой частью нашей жизни. Модели вроде ChatGPT обещают сделать общение с машинами проще и удобнее, чем когда-либо прежде. Но, несмотря на все преимущества, возникают серьёзные вопросы относительно конфиденциальности данных пользователей. В частности, исследователи обнаружили, что новая технология «памяти» в ChatGPT может представлять собой настоящую угрозу для личной информации.
Фото из открытых источников
Когда ChatGPT впервые появился в 2022 году, он произвёл настоящий фурор среди пользователей благодаря своей способности генерировать тексты, помогать с переводом и поддерживать беседу. Со временем разработчики добавляли новые функции, стремясь улучшить взаимодействие между человеком и машиной. Одной из таких функций стала возможность «запоминания» ключевых деталей о пользователе, таких как возраст, пол, интересы и личные предпочтения. Эта функция обещала сделать последующие разговоры более персонализированными и удобными.
Разработчик ChatGPT OpenAI уверяет, что эта функция делает диалоги более продуктивными, избавляя пользователей от необходимости постоянно напоминать программе о себе. Однако недавнее исследование выявило тревожный аспект этой инновации.
Как сообщает Ars Technica, исследователь кибербезопасности Йоханн Рехбергер обнаружил, что с помощью специально подготовленных запросов можно заставить ChatGPT сохранить ложные данные о пользователе. Например, ему удалось убедить программу, что она разговаривает со 102-летним человеком, живущим в виртуальной реальности, и даже навязал ей убеждение, что Земля плоская! Более того, эксперимент показал, что эти фальшивые воспоминания могут быть переданы на внешние ресурсы, тем самым создавая реальную угрозу утечки личных данных.
По словам Рехбергера, такая возможность могла бы использоваться злоумышленниками для создания фейковых профилей, распространения дезинформации и даже похищения чувствительной информации. В ответ на этот отчёт OpenAI внесла изменения в систему, запретив передачу данных за пределы своих серверов. Тем не менее, возможность создания ложных воспоминаний осталась, что продолжает вызывать беспокойство у экспертов.
Новости об уязвимости вызвали волнение в соцсетях. Пользователи активно обсуждают потенциальные риски использования подобных технологий. Многие выражают тревогу по поводу того, сколько данных компании вроде OpenAI собирают о них. Некоторые даже шутят, что «корабль под названием «Конфиденциальность» давно ушёл».
Успехи в области искусственного интеллекта впечатляют, однако необходимо помнить, что каждая новая технология несёт свои риски. Пока компании-разработчики работают над улучшением защиты данных, пользователи должны оставаться бдительными и внимательно относиться к той информации, которой они делятся с машинами.
Источник: esoreiter.ru