
После трагедии в школе города Тамблер-Ридж разгорелась дискуссия о том, должны ли компании, разрабатывающие искусственный интеллект, сообщать полиции о потенциально опасных разговорах пользователей чатов.
10 февраля 18-летний подросток устроил стрельбу в школе в городе Тамблер-Ридж. В результате погибли восемь человек. После нападения подросток покончил с собой.
Спустя несколько недель компания OpenAI признала, что незадолго до трагедии нападавший обсуждал возможную атаку с ChatGPT. При этом компания решила не уведомлять правоохранительные органы.
Теперь многие канадцы задаются вопросом: почему?
Ведущий подкаста Machines Like Us Тейлор Оуэн обсудил эту тему с Мередит Уиттакер — президентом компании Signal Technology Foundation. Её мессенджер, Signal, известен надёжной защитой личных данных: сообщения в нём зашифрованы, а сама платформа практически не собирает информацию о пользователях.
Тейлор Оуэн:
В прошлом месяце произошла стрельба в школе в Тамблер-Ридже. Позже выяснилось, что подросток обсуждал нападение с ChatGPT, но OpenAI не сообщила об этом полиции. После трагедии многие люди пришли к выводу: такие разговоры должны автоматически отслеживаться и передаваться правоохранительным органам. Как вы к этому относитесь?
Мередит Уиттакер:
Люди думают, что если компании будут автоматически передавать такие разговоры полиции, это позволит предотвратить подобные случаи. Но на самом деле дело не в нехватке информации: у служб, которые должны реагировать, просто нет ресурсов, чтобы расследовать все возможные угрозы и вовремя принимать меры.
Оуэн:
Если внедрить систему обязательного уведомления полиции о таких сообщениях — каковы риски?
Уиттакер:
Опасность заключается в том, что со временем границы того, что считается допустимым, стираются. История показывает: любые инструменты слежки легко превращаются в способ давления или контроля над людьми. При этом следует иметь в виду, что сегодня градус опасности крайне высок: современные крупные технологические компании обладают такими возможностями, о которых власти раньше могли только мечтать.
Если компании или власти начнут проверять личные сообщения, чтобы предотвращать подобное тому, что произошло в школе Тамблер-Риджа, это создаст прецедент — и следующим шагом может стать слежка за политическим мнением граждан или критикой власти. В США власти уже использовали официальные запросы к технологическим компаниям, чтобы выяснить, кто критикует правительство. Это показывает, как системы слежки, даже изначально созданные для безопасности, в результате могут использоваться против людей.
Мир, в котором люди не могут свободно общаться, — это мир, в котором невозможно жить свободной и полноценной жизнью.
Оуэн:
В мессенджере Signal сообщения защищены шифрованием, а в ChatGPT — нет. Можно ли вообще считать разговор с чат-ботом приватным?
Уиттакер:
Я считаю, что надеяться на полную приватность при использовании ChatGPT не стоит. Дело в том, что подобные системы изначально не создавались для этого: если бы переписка была полностью защищена, OpenAI не смогла бы использовать данные для рекламы и развития сервиса.
Меня беспокоит другое: имитация внимательного, «понимающего» собеседника создаёт ощущение приватного разговора. Но на другом конце — не живой человек, а крупная корпорация, действующая в рамках бизнес-модели технологической индустрии: собирать как можно больше данных о пользователях и зарабатывать на этом деньги.
Оуэн:
Искусственный интеллект развивается очень быстро. Мы уже переходим от обычных чат-ботов к так называемым ИИ-агентам, которые могут автономно выполнять реальные задачи. Вас это тревожит?
Уиттакер:
Да. Главные особенности таких программ: они получают максимально возможный доступ к вашим данным и могут действовать самостоятельно.
Представьте: у вас есть ИИ-агент на устройстве, и вы говорите ему — «спланируй вечеринку в честь моего дня рождения и пригласи четырёх моих ближайших друзей». Чтобы это сделать, агенту нужен доступ к браузеру, вашей банковской карте, календарю и списку контактов. Если вы активно пользуетесь Signal — ещё и к вашим сообщениям.
Оуэн:
Выходит даже самое надёжное шифрование теряет смысл, если на устройстве есть ИИ-агент с полным доступом к данным?
Уиттакер:
Именно. В этом случае шифрование Signal — одно из самых сильных в индустрии — уже не поможет защитить приватность пользователя. Проблема в самом ИИ-агенте: если его сделали небезопасным, он становится слабым звеном. То есть агент может читать ваши сообщения напрямую, до или после шифрования, и ваши данные уже находятся в зоне риска.
Оуэн:
Вы давно занимаетесь вопросами безопасности детей в сети. В последние годы многие страны обсуждают запрет социальных сетей для подростков. Как вы относитесь к подобным инициативам?
Уиттакер:
Цель этих мер — решить реальную проблему. Но на практике всё выглядит иначе: проверки возраста ненадёжны, а сами системы создают механизм слежки, который отслеживает пользователей по всему интернету.
Если быть честной, то меня тревожит, что под предлогом защиты детей внедряются системы слежки, которые всё чаще используются в политических целях.
Оуэн:
Но как быть с тем, что такие меры поддерживает огромное количество людей? В Канаде, например, около 90% жителей выступают за запрет социальных сетей для детей.
Уиттакер:
И их можно понять: родители наблюдают, как дети буквально живут в социальных сетях и становятся всё более изолированными. И это, безусловно, негативно сказывается на состоянии подрастающего организма.
Однако, на мой взгляд, корень проблемы кроется не в детях и даже не в соцсетях, а в бизнес-моделях крупных технологических компаний. Когда всего несколько компаний контролируют почти всю информационную среду, это создаёт системную проблему. Любые эффективные меры должны работать с самой структурой индустрии, а не только с детьми или соцсетями.
Оуэн:
Многие добровольно соглашаются на наблюдение: у трети людей есть смарт-колонки, у каждого пятого — камеры на дверных звонках. Вы говорили, что сегодня люди перекладывают ответственность за сохранность своей приватности на технологии, полагаясь на настройки, пароли, шифрование и правила платформ. Как объяснить им, что их собственные действия в сети напрямую влияют на безопасность и конфиденциальность?
Уиттакер:
Люди может и хотят защитить свою приватность, но реальная жизнь вносит свои коррективы: чтобы работать, учиться, пользоваться интернетом, им приходится передавать личные данные — это одно из условий современной жизни.
Приватность — это не просто вопрос личного выбора, это системная проблема индустрии, где отдельный пользователь мало что может изменить.
Оуэн:
Вы говорили, что нельзя рассматривать приватность только как технический термин, игнорируя тот факт, что она в первую очередь про людей и их свободу. Что вы имели в виду?
Уиттакер:
В современных реалиях разговор о приватности часто сводится только к потокам данных, а не к тому, какую ценность она имеет для полноценной человеческой жизни.
Главное — чтобы люди могли жить свободно и общаться открыто, без страха слежки или контроля.
И важно помнить: когда мы начинаем собирать или классифицировать данные о человеке (например, его привычки, предпочтения, онлайн-активность), мы уже вмешиваемся в его частную жизнь. ИИ, соцсети, платформы постоянно анализируют, маркируют и группируют людей по интересам, поведению, личным данным.
Даже без злого умысла, это — вмешательство в личную жизнь..
По материалам The Globe and Mail.
Подписывайтесь на наш Telegram-канал, чтобы всегда оставаться в курсе событий.

