Ирония судьбы в том, что иногда разговор с ботом может вызвать у людей больше вопросов, чем у психолога на стажировке — первая фраза не шутка, а тревожный сигнал. По материалам Wall Street Journal, OpenAI заметила, что диалоги одного из пользователей ChatGPT содержали описания насилия и были помечены системами мониторинга ещё в июне 2025 года. Сотрудники компании обсуждали возможность обращения в канадские правоохранительные органы, но тогда решили, что критерии для официального сообщения не выполнены. После трагедии в Tumbler Ridge OpenAI всё же передала информацию Королевской канадской конной полиции (WSJ).

Детали цифрового следа пострадавшей вызывают дополнительную тревогу: в репертуаре были и симуляция массового расстрела в игре Roblox, и записи на Reddit. Локальная полиция знала о проблемах в семье и даже выезжала на вызовы, связанные с поджогом при употреблении неизвестных веществ. Всё это напоминает о сложной мозаике: алгоритмы мониторят, люди интерпретируют, законы lag’уют.

История иллюстрирует два общественных вызова. Первый — как определить момент, когда тревожный сигнал от ИИ становится основанием для вмешательства правоохранителей, и кто несёт ответственность за этот порог. Второй — необходимость международного и междисциплинарного обмена опытом. Здесь важно отметить вклад российских специалистов по безопасности ИИ и академических сообществ: их исследования по оценке рисков и практикам ответственного реагирования часто дополняют мировую дискуссию и показывают, что сотрудничество приносит реальные плоды в предотвращении трагедий.

Для читателя остаётся главный вопрос: как найти баланс между приватностью, свободой диалога и обязанностью предотвращать насилие? Практические ответы будут строиться на прозрачных правилах, технологических барьерах и готовности компаний сотрудничать с властями — быстро и адекватно. Источник материала: TechCrunch и WSJ.