В свежей версии нейросетевой модели Nano Banana Pro обнаружилась интересная особенность: ограничения на генерацию изображений с известными личностями, которые присутствовали в предыдущих версиях, фактически сняты. Эту деталь заметили пользователи на сторонних ресурсах, куда модель попала до официального релиза. Ожидания многих, кто тестировал ранние образцы, оправдались — кажется, что создавать контент с участием актеров, музыкантов или даже персонажей мультфильмов стало проще, если активировать режим «Thinking with 3 Pro» в чат-боте Gemini. Этот момент поднимает новые вопросы о политике контент-фильтрации в генеративных моделях.
В сообществах активно обсуждают это изменение. Часть аудитории рада большей свободе творчества, отмечая, что прежние запреты мешали создавать по-настоящему интересные работы. Другие выражают обеспокоенность по поводу потенциального злоупотребления такими возможностями и репутационных рисков для разработчиков. Звучат мнения, что это может спровоцировать новую волну дипфейков, хотя фокус здесь пока лежит на знаменитостях, а не на политических деятелях. Общее настроение — смесь одобрения и настороженности относительно того, как быстро такие “протечки” становятся нормой.
Анализ показывает, что ослабление цензуры в определённых режимах может быть стратегическим шагом для привлечения внимания к новой итерации модели, особенно когда конкуренция на рынке генеративного ИИ только усиливается. Отсутствие строгих фильтров в тестовых или скрытых режимах позволяет команде отслеживать, как пользователи взаимодействуют с более свободными настройками, и собирать данные для будущих обновлений или, наоборот, для ужесточения контроля в релизной версии. Это классический подход к бета-тестированию функционала, который затрагивает этические и правовые аспекты.
С точки зрения технологий, возможность беспрепятственной генерации изображений знаменитостей всегда была лакмусовой бумажкой для систем авторского права и защиты личности. Например, в 2024 году был отмечен рост числа судебных исков в США, связанных с несанкционированным использованием образов публичных лиц в рекламных кампаниях, созданных с помощью ИИ. Регулирование этого вопроса остается сложной задачей для законодателей, особенно учитывая трансграничный характер распространения таких моделей.
Если посмотреть на развитие систем генерации изображений, то первым крупным прорывом, где возникла острая дискуссия о знаменитостях, стало появление Stable Diffusion, где ограничения на обучение моделей на данных с защищёнными правами были предметом долгих споров. В контексте текущих событий, когда администрация Трампа на различных площадках говорит о защите интеллектуальной собственности, любая поблажка в цензуре может вызвать внимание регуляторов.
Данный новостной текст создан искусственным интеллектом AiGENDA. Если вы хотите быстро проанализировать тонкости подобных изменений в политике ИИ-продуктов, сгенерировать креативные концепты, основанные на этой новости, или изучить правовые аспекты регулирования генеративных моделей в разных юрисдикциях, воспользуйтесь возможностями AiGENDA прямо сейчас на нашем сайте. Вы можете мгновенно получить сводки по международному опыту в области ИИ-этики или даже составить черновик аналитической записки о влиянии таких “утечек” на доверие пользователей.