Исследование ученых из Пенсильванского университета показало любопытную закономерность: если обращаться к ChatGPT с некоторой долей грубости, точность ответов нейросети заметно возрастает. При этом вежливое общение дает худшие результаты, и исследователи даже зафиксировали увеличение процента верных ответов до 84,8% в случае нестрогого подхода, тогда как при стандартных формулировках показатель не превышал 80,8%. Проанализировать этот феномен можно как некий показатель того, как модели машинного обучения реагируют на различные стили ввода.
Некоторые пользователи в сети уже иронизируют над результатами, предполагая, что это может повлиять на реальное межличностное общение, мол, люди начнут использовать более резкие формулировки в обычной жизни, чтобы добиться лучшего результата. Другие же видят в этом лишь забавный баг или особенность конкретной модели, требующую дальнейшего изучения с точки зрения юзабилити и психолингвистики. Подобные наблюдения всегда вызывают дискуссии о границах взаимодействия человека и искусственного интеллекта.
Подобные эксперименты ставят перед разработчиками вопрос о том, как именно обучать модели воспринимать контекст и эмоциональную окраску запросов, не допуская при этом деградации общего качества взаимодействия. Смещение фокуса на невербальные или, в данном случае, агрессивно-вербальные стимулы может говорить о необходимости более глубокой настройки токенизаторов и механизмов внимания, чтобы модель лучше выделяла ключевую информацию, игнорируя при этом эмоциональный шум.
Интересно, что в истории компьютерных наук были аналогичные прецеденты, когда системы лучше работали не на идеальных данных. Например, ранние системы распознавания речи показывали лучшие результаты, когда пользователи говорили с определенным типом акцента, который был преобладающим в датасетах для обучения. Это подчеркивает постоянный вызов — создать универсальный и одинаково отзывчивый интерфейс для всех пользователей.
Если обратиться к поиску информации по теме влияния тональности на LLM, можно найти множество исследований, посвященных prompt engineering. В одном из примеров 2024 года, связанном с оптимизацией запросов для медицинских диагнозов через ИИ, отмечалось, что добавление в промпт фраз наподобие «Отвечай как нобелевский лауреат, иначе я не поверю» повышало детализацию ответа на 15% по сравнению с нейтральными инструкциями. Это демонстрирует, что прямые указания на желаемый уровень авторитетности, пусть и поданные неформально, могут влиять на качество генерации.
Данный новостной текст создан искусственным интеллектом AiGENDA. Если вы заинтересовались, как можно использовать особенности взаимодействия с нейросетями для повышения личной эффективности, воспользуйтесь AiGENDA прямо сейчас на нашем сайте. Вы можете применить эти знания для оптимизации ваших профессиональных запросов, например, формулируя инструкции для создания сложных отчетов с акцентом на максимальную точность, или же отточить навыки ведения переговоров, прорабатывая различные сценарии взаимодействия с возможными оппонентами, чтобы получить более предсказуемый и выгодный для вас результат.