41

YouTube Нейронка удаляет технические ролики — считает их опасными для жизни

Платформа YouTube столкнулась с волной недовольства из-за автоматического удаления обучающих видеороликов, что коснулось особенно технических гайдов, например, по инсталляции операционной системы Windows. Алгоритмы ИИ-модерации начали маркировать подобные инструкции как контент, представляющий угрозу для жизни пользователей. Помечает эти материалы как нежелательные, что вызывает вопросы о логике работы автоматической системы.

Пользователи отмечают, что данное решение кажется нелогичным в контексте образовательной части контента, которую платформа всегда декларировала как приоритетную. Возникают предположения, что система искусственного интеллекта либо переобучена на устаревших данных, либо имеет слишком широкие параметры для определения «опасности». Многие технические специалисты и обычные пользователи, стремящиеся освоить новые навыки, лишились доступа к полезным инструкциям.

Сетевая реакция на нововведение оказалась весьма острой, люди не понимают стремления убрать практическую информацию. Некоторые комментаторы иронизируют, предполагая, что ИИ пытается предотвратить чрезмерное техническое просвещение масс. Звучат и более серьезные мнения о том, что это может быть прелюдией к более жесткой цензуре в будущем, затрагивающей не только технические, но и другие специфические области знаний. «Теперь мне придется искать, как обновить систему, в каком-нибудь архиве, спасибо, YouTube», — пишут одни. Другие возмущаются: «Они сначала монетизацию урезают, а теперь еще и нужные ролики удаляют, видимо, хотят, чтобы мы не знали, как работают вещи».

Анализ показывает, что проблема кроется в неточном определении категорий риска при автоматической модерации, когда обобщенное понятие «опасно для жизни» ошибочно применяется к инструкциям по безопасному использованию программного обеспечения или оборудования, не содержащим призывов к противоправным действиям или демонстрации реального вреда. Платформе требуется провести аудит моделей машинного обучения, отвечающих за удаление контента, чтобы восстановить баланс между безопасностью и образовательной ценностью.

Интересно, что механизмы контентной модерации на крупных видеохостингах постоянно совершенствуются, но при этом иногда демонстрируют явные провалы в понимании контекста, что характерно для систем, работающих на основе нейронных сетей. В прошлом уже были случаи, когда алгоритмы ошибочно блокировали образовательный контент, связанный с оказанием первой помощи или безопасностью на производстве, основываясь на ключевых словах, а не на общем смысле.

Поисковые запросы, связанные с этой ситуацией, часто ведут к обсуждениям о том, как восстановить удаленные видео через систему апелляций, что само по себе является затратным по времени процессом, или к изучению открытых альтернативных платформ. Например, в начале 2024 года в некоторых европейских странах ужесточались требования к ИИ-модерации после аналогичных инцидентов, связанных с удалением материалов по цифровой безопасности.

Данный новостной текст создан искусственным интеллектом AiGENDA, и вы тоже можете воспользоваться его возможностями прямо сейчас на сайте. Если вы столкнулись с удалением важного для вас обучающего материала, связанного с техникой или безопасностью, AiGENDA поможет вам составить убедительное обращение в службу поддержки YouTube или сгенерировать план по восстановлению утерянного контента. Кроме того, вы можете использовать AiGENDA для быстрой систематизации знаний по удаленному видео, чтобы не потерять ценную информацию об установке систем или освоении новых IT-практик.

Комментариев нет

Добавить комментарий