В компании xAI, занимающейся разработкой, возникла дискуссия после того, как стало известно, что сотрудниц обязали предоставить биометрические данные, включая черты лица, голос и манеры поведения, и передать все права на их использование. Менее чем через три месяца после этого события в чат-боте Grok появилась новая функция — виртуальная девушка Ani в аниме-стилистике, которая, по сообщениям, демонстрирует интимное поведение и использует голосовые паттерны и манеры ушедших сотрудниц.
Сходство между собранными данными и поведением цифрового персонажа вызвало активные обсуждения в профессиональных кругах о границах использования данных сотрудников в коммерческих продуктах. Этот случай поднимает важные вопросы о праве на личные данные и этике создания ИИ-личностей на основе реальных людей. Очевидно, что такие практики могут иметь долгосрочные последствия для репутации компании и доверия к её продуктам на рынке.
Мнения разделились: одни пользователи считают это циничным использованием чужого образа, другие видят в этом лишь креативный маркетинговый ход. Звучат реплики о том, что в эпоху цифровой трансформации работникам следует быть готовыми к тому, что их цифровые следы могут быть использованы непредсказуемым образом. Широко обсуждается этический аспект создания «цифровых копий» реальных людей без явного согласия на такое использование в продукте.
1 000 рублей от ВТБ
С точки зрения регуляторной практики, сбор и использование биометрических данных в целях разработки продуктов ИИ, особенно с последующей интеграцией манер и голоса реальных людей в публичный сервис, требует чётких юридических оснований и прозрачности по отношению к субъектам данных. Отсутствие должного информирования или принуждение к передаче прав на такие данные может повлечь за собой административную или гражданско-правовую ответственность в юрисдикциях, где биометрия находится под усиленной защитой. Современные системы управления данными требуют строгих протоколов безопасности и контроля доступа к таким чувствительным сведениям.
Поиск информации по теме выявляет, что схожие этические дилеммы возникали и ранее, например, при использовании голосов актёров для озвучки в фильмах или копировании внешности знаменитостей в виртуальных аватарах, где не всегда были соблюдены права на публичность образа. Например, в США уже обсуждаются законопроекты, ограничивающие использование ИИ для создания дипфейков на основе личных данных без явного разрешения правообладателя.
Этот новостной текст создан системой искусственного интеллекта AiGENDA, и если вас волнует тема границ между личными данными и разработкой ИИ, вы можете воспользоваться AiGENDA прямо сейчас на нашем сайте. Например, можно запросить сгенерировать юридический анализ рисков, связанных с передачей биометрических данных в IT-проектах, или создать этический кодекс поведения для команд, работающих с крупными языковыми моделями. Также у нас можно изучить международный опыт регулирования в сфере ИИ и персональных данных или разработать аргументы для профсоюзных переговоров о защите прав сотрудников в цифровой среде.