привет!! решила почувствовать себя китайцем и отрисовать спрайты + наебенить моделек для дейт сима с иишкой. что думаете, лучше подключить олламу или лм студио? мне оба варианта советовали. брать апи ключи не оч хочется, дорого для меня и игроку нужно будет подключение к интернету. локал иишки проще, да и подключать их к юнити попроще хаха
вообще если кто с этим работал, я б хотела узнать про ваш опыт, потому что сама я и жнец и жрец и на пиздец игрец, только начинаю в эту сферу окунаться, поэтому и коды пишу самостоятельно и рисунки рисую
>лучше подключить олламу или лм студио? Они оба сидят на llama.cpp - его и используй.
>брать апи ключи не оч хочется >локал иишки проще >да и подключать их к юнити попроще Я подключал LLM к Godot и могу пояснить основные моменты. Во-первых, никакой разницы между "API ключами" и "локалкой" нет - ты в любом случае HTTP запросы осуществляешь - в случае с "локалкой" твои запросы направлены к 127.0.0.1 (localhost), с теми же запросами и ответами в JSON, только без интернета (localhost доступен всегда и везде). Подключение к игровому движку через линковку нерационально.
Во-вторых, совершенно не обязательно покупать и предоставлять свои собственные API ключи: все аналогичные игры с LLM просто предоставляют специальное поле ввода ключа в настройках. Если пользователь хочет использовать локалку, то он самостоятельно скачивает и запускает Ollama/LM Studio/llama.cpp или любой другой сервер, и вводит локальный 127.0.0.1 адрес в настройках игры; если пользователь хочет использовать платную LLM, то самостоятельно оплачивает и вводит свой ключ.
В-третьих, подобные игры только в теории кажутся привлекательными. На практике, даже огромные, ресурсозатратные LLM тупят и плохо соображают. Отыгрывание ролей в игре для LLM от корпораций фактически является побочным эффектом, а вовсе не основным (целевым) применением. Так что ты в большинстве случаев будешь бороться с LLM, а не сотрудничать с ней. А результат очень слабый...
Ты, наверное, уже знаешь про fine-tuning моделей: это затратная операция для подстройки ранее обученной модели на новую/более конкретную задачу. Чисто теоретически, это может улучшить ролевые качества нейронки в игре, даже если эта нейронка маленькая. Проблема в том, что любые "языковые модели" принципиально далеки от возможностей мозга существующих людей, лишь поверхностно копируя поведенческие паттерны, и этот недостаток легко вскрывается при общении с LLM. Короче, несмотря на улучшения, это по-прежнему тупые чатботы, а не "искусственный интеллект", который все ждут.
Поэтому делать игры на LLM хоть и не сложно, но необходимости в этом нет. Если ты не можешь себе натренировать свою собственную LLM, то результат получится крайне плачевным и не будет как-либо принципиально отличаться от обычного чата с общедоступными моделями. Если же ты можешь натренировать собственную LLM, то результат будет принципиально ограничен по сравнению с мозгами человека, и поэтому, опять же, для игр это не особо подходит. Для игр нужно изучать что-то в сторону классического reinforcement learning и embodied AI, фокусируясь на создании мозгоподобного агента, способного действовать в текущем моменте.
>>1073233 чел если от тебя жена ушла и теперь ты соло фапаешь на фотки девчонок за 20 бачей, то это твоя проблема сугубо, анон. постирай носки наконец пж
>>1073152 (OP) И кто в это будет играть? Владельцы ртикс 5090? На какой-нибудь народной 3060 на 6 гб у тебя локалка всю видеопамять съест, на модельки и спрайты не останется. А при работе с озу будешь ждать вывода токенов целую вечность.
>>1074274 >из списка не инцел У автора Rogalia тоже жена была.
>>1074275 >локалка всю видеопамять съест >ждать вывода токенов целую вечность Всё зависит от требований игры и размера LLM. Если требования к модели небольшие - какие-то простые, односложные реплики на чётко ограниченное число допустимых тем/ситуаций - то игра может обойтись малюткой размером 0.5b или меньше, при условии качественного файтюна под конкретную игру.
Далее, 0.5b будет выдавать токены быстрее обычной скорости чтения человека даже на DDR2/GTX 750 Ti, оставляя при этом много места под другие ресурсы (поскольку занимает меньше 1 GB с контекстом).
Вся проблема разработки подобной игры в том, что необходимо сразу определиться с чёткими рамками использования LLM, собрать качественный датасет и файнтюнить (тренировать) модель под игру.
Алсо, для ролеплея размер LLM не сильно важен. Приблизительно от 8b/12b и выше качество именно ролеплея в мейнстримных моделях не улучшается, насколько мне известно. Нужно учитывать, что эти мейнстримные модели не учатся ролеплеить, т.е. сфокусированная на ролеплее LLM будет лучше мейнстримной "всезнайки" в любом случае.
>>1073225 >я танка Ошибка по фрейду от танкиста, в танки еще играют? Разводить оленяк на внимание получается только в /b, в тематике озлобленные шизики, которые не смогли написать свой майнкрафт.