2. М, 20, 194/70. Студент. Математика, программирование. Слушаю много очень разной музыки, думаю, что-то общее найдётся. Наверное, за все время рок-жанры превалируют, но ныне не так много рок слушаю. Раньше много читал. Интересуюсь и имею какие-то (в основном дилетантские, признаюсь) познания во многих областях: история, география (науки о Земле), антропология, психология, философия, астрономия, теории заговора и далее. Люблю созерцать нетронутую природу (да и архитектуру тоже, как и все красивое), так что имею тягу к путешествиям. Раньше много играл в игры, любимые за все время — Rimworld и World of Warcraft. Две лучших игры для эскапизма. Больше всего времени провел там и в dota 2. Смотрю сериалы иногда, в основном из популярных американских драм подлиннее. Занимаюсь спортом бессистемно. Ещё есть что сказать, но ограничусь пока этим.
Вторая армия мира за 3 дня не может уже 4 года взять райцентр, имея тотальный количественный превес в технике и людях. Современных самолётов F-16 дали только 40 штук, а Украина сбила 435 ватных современных самолётов. И так по всем позициям. За одно бабкосело вата кладёт больше в 1000 раз, чем там максимально жило. Но это не беда, ведь братские иностранные специалисты позаботиться о вдовах.
«Ты — эксперт в машинном обучении», «Представь, что ты senior-разработчик» — подобные вступления к промптам давно стали ритуалом при работе с нейросетями. Интернет переполнен гайдами, советующими назначить модели роль профессионала, прежде чем задавать вопрос. Исследователи из Университета Южной Калифорнии выяснили, что такая техника только ухудшает результат.
Метод persona-based prompting появился в 2023 году, когда учёные начали изучать влияние ролевых инструкций на поведение языковых моделей. Идея выглядела логично: если попросить модель вести себя как эксперт, ответы станут точнее и профессиональнее. Практика оказалась сложнее теории.
Тестирование на бенчмарке MMLU продемонстрировало, что «экспертная персона» стабильно уступает базовой модели во всех четырёх категориях: общая точность составила 68 % против 71,6 % без всякой роли.
«Ты — эксперт в машинном обучении», «Представь, что ты senior-разработчик» — подобные вступления к промптам давно стали ритуалом при работе с нейросетями. Интернет переполнен гайдами, советующими назначить модели роль профессионала, прежде чем задавать вопрос. Исследователи из Университета Южной Калифорнии выяснили, что такая техника только ухудшает результат.
Метод persona-based prompting появился в 2023 году, когда учёные начали изучать влияние ролевых инструкций на поведение языковых моделей. Идея выглядела логично: если попросить модель вести себя как эксперт, ответы станут точнее и профессиональнее. Практика оказалась противоположностью теории.
Тестирование продемонстрировало, что «экспертная персона» уступает базовой модели: точность составила 68% против 72% без всякой роли.