Если вы думали, что ChatGPT — это ваш личный цифровой дневник для конфиденциальности, приготовьтесь к холодному душу. Судебное постановление только что превратило каждый ваш разговор с ИИ в потенциальную судебную бомбу. OpenAI теперь должен хранить все: от ваших ночных кризисов до ваших бизнес-идей, от ваших экзистенциальных сомнений до ваших проблем в отношениях.
Причина? The New York Times подала на них в суд по авторским правам, и теперь судьи хотят (и могут) искать доказательства в ваших чатах. Альтман беспокоится, но реальность такова, что обещание ChatGPT о конфиденциальности было просто маркетингом. И вот теперь миллионы пользователей обнаруживают, что они разговаривают не с доверенным лицом, а с постоянно включенным диктофоном.
Конфиденциальность ChatGPT как выгодный товар
Судья Она Т. Ван 13 мая вынесла постановление, которое заставит дрожать любого, кто когда-либо делился чем-либо личным с помощью ChatGPT.. OpenAI должен «сохранять и разделять все выходные данные, которые в противном случае были бы удалены», включая разговоры, которые пользователи намеренно удалили. Ирония горька: компания обещанные постоянные отмены в течение 30 дней, и вместо этого теперь все останется заблокированным на неопределенный срок.
Дело возникло из судебной тяжбы между New York Times и OpenAI, где газета обвиняет компанию в использовании миллионов статей, защищенных авторским правом, для обучения своих моделей. Но настоящей сопутствующей жертвой станут пользователи, превратившиеся из клиентов в невольных поставщиков доказательств для суда. Каждый разговор становится потенциальным юридическим «боеприпасом».
Брэд Лайткап, главный операционный директор OpenAI, осудил, что этот запрос «в корне противоречит обязательствам по обеспечению конфиденциальности, которые мы взяли на себя перед нашими пользователями в ChatGPT».. Слова, которые звучат пусто, когда реальность такова, что эти обязательства растаяли, как снег на солнце, еще до первого постановления суда.

Иллюзия цифрового доверенного лица
Сэм Альтман ответил предложением, столь же амбициозным, сколь и запоздалым: концепцией «привилегий ИИ». В X он писал: «По моему мнению, общение с ИИ должно быть похоже на общение с юристом или врачом». Идея профессиональной тайны применительно к искусственному интеллекту это увлекательно, и я с этим согласен, но это происходит, когда омлет уже готов.
Миллионы людей уже рассказали о своих проблемах с психическим здоровьем, кризисах в отношениях, предпринимательских проектах и личных слабостях в чатах ChatGPT. Как я уже отмечал некоторое время назад, чат-боты становятся нашими новыми цифровыми исповедниками, способными оказывать круглосуточную поддержку без (по всей видимости) осуждения.
Проблема в том, что у этого исповедника память слона и характер деревенского сплетника. Все, что вы им рассказываете, записывается, анализируется и может быть использовано против вас, когда вы этого меньше всего ожидаете..
Конфиденциальность ChatGPT, парадокс подключенного будущего
Это поднимает глубокие вопросы о будущем наших отношений с искусственным интеллектом. Если ИИ действительно станут нашими личными помощниками, виртуальными психологами и доверенными советниками, какие гарантии конфиденциальности у нас есть?
Этот случай вызвал обеспокоенность, выходящую далеко за рамки авторского права.. Мы являемся свидетелями зарождения опасного прецедента: каждый раз, когда кто-то подает в суд на компанию, занимающуюся ИИ, наши личные разговоры могут оказаться под судебным арестом. Право быть забытым, которое, как мы думали, мы приобрели, исчезает, когда кому-то другому нужны наши слова в качестве доказательства..
Между маркетингом и реальностью
OpenAI всегда использовала обещание конфиденциальности для привлечения пользователей. Их политика говорит об автоматическом удалении, контроле пользователей над своими данными, прозрачности. Но когда приходит суд, эти обещания оказываются столь же хрупкими, как мыльные пузыри..
Люди, конечно, не так глупы, как говорят, и с груши не падают. Расследования показывают что 73% потребителей уже беспокоятся о конфиденциальности при взаимодействии с чат-ботами. Этот случай даст им конкретные причины быть еще более осторожными.
Правда неудобна, но ясна: Сегодняшние ИИ — не исповедники, а цифровые «болтуны», которые в конечном итоге вываливают все, что знают, когда это кому-то нужно.. Каждый поделенный секрет, каждая раскрытая уязвимость, каждая идея, высказанная шепотом в тусклом свете ночного чата, могут всплыть в самый неподходящий момент.
К какому будущему?
Предложенная Альтманом «привилегия ИИ» может стать первым шагом на пути к более зрелым отношениям с искусственным интеллектом. Однако потребуется время, чтобы разработать правовую базу, которая действительно защитит нашу цифровую конфиденциальность.. Между тем, урок жесток, но необходим: каждое слово, сказанное чат-боту, потенциально является отложенным публичным признанием.
Лучшее время переосмыслить наши отношения с этими цифровыми помощниками было вчера. Второе лучшее время — сегодня. Они не безошибочные исповедники, но мощные инструменты, требующие той же осторожности, которую мы бы использовали с любой другой технологией, записывающей и хранящей нашу жизнь.
Конфиденциальность в эпоху ИИ — это не приобретенное право, а привилегия, которую нужно зарабатывать каждый день.. И битва, дорогие мои, только началась.