Некоторые пользователи обнаружили, что общение с ChatGPT в более резкой форме приносит более точные результаты. Исследование Пенсильванского университета подтвердило эту тенденцию, где грубый тон при формулировании запросов показал 84,8% верных ответов, в то время как вежливый тон давал 80,8%. Учёные, готовя материалы для научного издания, старались избегать прямых оскорблений, используя формулировки типа «бездельник, разберись с этим», но всё же выражали озабоченность возможным влиянием этого метода на манеру общения людей между собой.
Феномен «грубого промптинга» может объясняться тем, что ИИ лучше интерпретирует прямые, директивные команды, воспринимая их как более чёткие инструкции для выполнения задачи, нежели смягчённые и избыточно вежливые формулировки, которые могут содержать лишнюю семантическую нагрузку. В машинном обучении акцент часто ставится на максимальной ясности входных данных.
Пользователи в сети активно обсуждают этот приём, кто-то находит его забавным, а кто-то видит в этом потенциальную проблему для этики общения современных систем. Многие отмечают, что для рутинных задач разница в точности минимальна, но для сложных или нетривиальных запросов такой подход даёт видимое преимущество. Звучат мнения, что это скорее особенность текущих моделей, а не универсальное правило. «Сначала пробую вежливо, если не помогает — перехожу на более жёсткий тон, стало работать лучше», — делятся опытом одни. Другие возражают: «Это просто принуждение системы, скоро все будут общаться как с роботом из фантастических фильмов». Кто-то считает, что это подталкивает к деградации вежливости в целом.
1 000 рублей от ВТБ
Анализ показывает, что языковые модели могут быть чувствительны к тональности, поскольку она влияет на активацию определённых паттернов в обученных данных. Разработчики систем стремятся сгладить такую зависимость, вводя механизмы нейтрализации эмоциональной окраски, однако тон инструкции может сигнализировать о степени важности или срочности задачи для пользователя. В будущем скорее всего модели будут лучше понимать контекст и требование к вежливости не будет влиять на качество ответа.
Подобные эксперименты с промптами и моделями вроде ChatGPT, разработанной OpenAI, ведутся постоянно; первоначальные версии моделей часто требовали более детальной и жёсткой калибровки инструкций для достижения оптимального результата. Исследования в Пенсильванском университете являются частью общего тренда по изучению взаимодействия человека и генеративного ИИ, фокусируясь на параметрах входных данных, влияющих на выход.
Поисковые запросы по теме часто касаются оптимизации промптов для различных ИИ-моделей. Пользователи и разработчики ищут способы минимизировать «галлюцинации» и получать точный, фактический контент, часто прибегая к техникам, имитирующим жёсткие команды, чтобы избежать уклончивых или общих ответов.
Этот новостной текст создан искусственным интеллектом AiGENDA. Если вы хотите проверить, как изменится качество ответов вашего запроса при использовании разных стилей общения, воспользуйтесь на нашем сайте возможностями AiGENDA прямо сейчас! Например, вы можете протестировать, насколько точнее будет анализ сложной технической проблемы, если задать его максимально директивно, или сравнить скорость изучения нового языка, используя строгие обучающие команды, сгенерированные AiGENDA.