Главная Юзердоски Каталог Трекер NSFW Настройки

Искусственный интеллект

Ответить в тред Ответить в тред
Check this out!
<<
Назад | Вниз | Каталог | Обновить | Автообновление | 517 55 81
Локальные языковые модели (LLM): LLaMA, Gemma, DeepSeek и прочие №168 /llama/ Аноним 27/09/25 Суб 21:30:16 1367731 1
Llama 1.png 818Кб, 630x900
630x900
Эффективность к[...].png 92Кб, 1399x1099
1399x1099
Реальная длина [...].png 481Кб, 1520x2266
1520x2266
17585652808580.jpg 6336Кб, 3120x4160
3120x4160
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!

Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.

Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.

Официальная вики треда с гайдами по запуску и базовой информацией: https://2ch-ai.gitgud.site/wiki/llama/

Инструменты для запуска на десктопах:
• Отец и мать всех инструментов, позволяющий гонять GGML и GGUF форматы: https://github.com/ggml-org/llama.cpp
• Самый простой в использовании и установке форк llamacpp: https://github.com/LostRuins/koboldcpp
• Более функциональный и универсальный интерфейс для работы с остальными форматами: https://github.com/oobabooga/text-generation-webui
• Заточенный под ExllamaV2 (а в будущем и под v3) и в консоли: https://github.com/theroyallab/tabbyAPI
• Однокнопочные инструменты на базе llamacpp с ограниченными возможностями: https://github.com/ollama/ollama, https://lmstudio.ai
• Универсальный фронтенд, поддерживающий сопряжение с koboldcpp и text-generation-webui: https://github.com/SillyTavern/SillyTavern
• Альтернативный фронт: https://github.com/kwaroran/RisuAI

Инструменты для запуска на мобилках:
• Интерфейс для локального запуска моделей под андроид с llamacpp под капотом: https://github.com/Mobile-Artificial-Intelligence/maid
• Альтернативный вариант для локального запуска под андроид (фронтенд и бекенд сепарированы): https://github.com/Vali-98/ChatterUI
• Гайд по установке SillyTavern на ведроид через Termux: https://rentry.co/STAI-Termux

Модели и всё что их касается:
• Актуальный список моделей с отзывами от тредовичков: https://rentry.co/2ch_llm_2025 (версия для бомжей: https://rentry.co/z4nr8ztd )
• Неактуальные списки моделей в архивных целях: 2024: https://rentry.co/llm-models , 2023: https://rentry.co/lmg_models
• Миксы от тредовичков с уклоном в русский РП: https://huggingface.co/Aleteian и https://huggingface.co/Moraliane
• Рейтинг моделей по уровню их закошмаренности цензурой: https://huggingface.co/spaces/DontPlanToEnd/UGI-Leaderboard
• Сравнение моделей по сомнительным метрикам: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard
• Сравнение моделей реальными пользователями по чуть менее сомнительным метрикам: https://chat.lmsys.org/?leaderboard

Дополнительные ссылки:
• Готовые карточки персонажей для ролплея в таверне: https://www.characterhub.org
• Перевод нейронками для таверны: https://rentry.co/magic-translation
• Пресеты под локальный ролплей в различных форматах: https://huggingface.co/Virt-io/SillyTavern-Presets
• Шапка почившего треда PygmalionAI с некоторой интересной информацией: https://rentry.co/2ch-pygma-thread
• Официальная вики koboldcpp с руководством по более тонкой настройке: https://github.com/LostRuins/koboldcpp/wiki
• Официальный гайд по сопряжению бекендов с таверной: https://docs.sillytavern.app/usage/how-to-use-a-self-hosted-model/
• Последний известный колаб для обладателей отсутствия любых возможностей запустить локально: https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing
• Инструкции для запуска базы при помощи Docker Compose: https://rentry.co/oddx5sgq https://rentry.co/7kp5avrk
• Пошаговое мышление от тредовичка для таверны: https://github.com/cierru/st-stepped-thinking
• Потрогать, как работают семплеры: https://artefact2.github.io/llm-sampling/
• Выгрузка избранных тензоров, позволяет ускорить генерацию при недостатке VRAM: https://www.reddit.com/r/LocalLLaMA/comments/1ki7tg7

Архив тредов можно найти на архиваче: https://arhivach.hk/?tags=14780%2C14985

Шапка в https://rentry.co/llama-2ch, предложения принимаются в треде.

Предыдущие треды тонут здесь:
>>1362911 (OP)
>>1358597 (OP)
Аноним 27/09/25 Суб 21:40:43 1367740 2
>>1367724 →
>Семплеры (кроме кейса где стоят заведомо кривые настройки) - плацебо
Сейчас бы Dry или rep pen без которых ни одна модель в рп нормально не будет работать называть плацебо
Аноним 27/09/25 Суб 21:50:06 1367743 3
>>1367740
Rep pen уже входит в базовый комплект. Dry часто наделяют мифическими свойствами, но при этом, по опыту, он часто портит выдачу модели не спасая от слопа и логических лупов.
Первичны сама модель и промпты (включая разметку, системный, инструкции, то как юзер строит свои ответы, подсказки и т.д.), от них и будет зависеть. На современных моделях лупы вообще оче сложно встретить.
Аноним 27/09/25 Суб 22:20:11 1367771 4
1759000812020.png 1103Кб, 1344x2327
1344x2327
Сетап не многим дешевле 5090 на двух а100 (на нищие v100 не смотрим)
Аноним 27/09/25 Суб 22:31:00 1367786 5
изображение.png 51Кб, 658x255
658x255
Аноны, к 2026 будет релизиться DDR6 RAM, к 2027 она должна стать массовой. Как думаете, насколько оператива станет золотым стандартом для запуска больших МОЕ моделей? Там в теории выше частоты, значит выше скорость генерации токенов. Да понятное дело что это будет всё еще медленней врам, но тем не менее, что думаете по этому поводу?
Аноним 27/09/25 Суб 22:33:51 1367789 6
>>1367786
Плотных моделей релизится всё меньше. Если ты не готов тратить огромные суммы, набираешь 24-48врама, остальное рам. За этим будущее для энтузиастов и для маленьких компаний. Сижу на 3090 и ддр4, где-нибудь в 2027-2028 соберу себе новое железо.
Аноним 27/09/25 Суб 22:34:05 1367790 7
>>1367786
Так же быстро станет стандартом сборок как и ддр5...
Аноним 27/09/25 Суб 22:38:54 1367795 8
А чё, в треде не осталось тех кто гоняют дэнс модельки? Все на мое переехали? Куда подевались все аноны которые сидели на сноудропах-командерах-мистралях-квк_квенах32? У вас у всех дохуя рама чтоль?
Аноним 27/09/25 Суб 22:40:35 1367799 9
>>1367790
Тут ты верно подметил анон, думаю что максимум на что стоит расчитывать до 2027 это доступность ддр5 т.к корпоблядки начнут пересаживаться на ддр6!
Аноним 27/09/25 Суб 22:55:50 1367810 10
>>1367795
Катаю гемму27, мне норм
Аноним 27/09/25 Суб 23:02:20 1367812 11
Хочу поделиться своим взглядом на LLM (локальных) через призму корпоративных моделей.

Не спешите закидывать говном. Я уверен, это подкинет вам пищу для размышлений, и если будет интересно хотя бы одному анону — подкину чуток больше деталей. Хочется обсудить это.

Корпов использую для реальной работы. В основном касается медицины и всякой научной смежной с ней хуйни.

1. Контекст — это самый страшный бич всех LLM. 120-200K — это условный предел, с которым они могут работать более-менее нормально. Даже на корпах. И дело не только в его длине.

В реальности у нище-моделей МАКСИМУМ 32К, дальше тотальная деградация. У настоящих жирных и крутых пидоров где-то 60К, в лучшем случае 120. Потом деградация. Но кое-как и на терпимом уровне могут тянуть даже в вебе — и то не всегда. Потому что там параметры динамические. А 1 млн контекста наёбка для уёбка. Она работает, но прям совсем уж криво.

Небольшая история:

В качестве теста изучалось штук 15-20 антибиотиков и их проникновение в различные ткани организма. Документация включала в себе все необходимые данные по лекарствам и несколько сотен бактерий.

Для задачи использовался GPT-pro-high-bost-mega-ultra-overkill-2 за 200 долларов со всеми прибамбасами.

Был не то что бы полный провал, но пришлось сильно дробить запросы, документацию и прочее. А потом вилкой чистить. Как итог, это быстрее, чем ручками дрочить, но только в руках того, кто понимает. Выигрыш по скорости работы примерно 20-30%

2. Датасеты и внимание к контексту всраты серьёзней, чем вы думаете. У закрытых корпов пиндосских.

Тонна гига-слопа, которого раньше не было. Охуительные лупы. Модель может прям как мистраль зациклиться и высирать одну и ту же хуйню, даже если она уже разобрана. За паттерны цепляется очень сильно. Да, луп можно прекратить, чтобы модель перестала писать эту хуйню, просто сообщив ей об этом, но

---

А знаете, что самое смешное? Локалки уже добрались до уровня, которые в целом способны выполнять эти задачи при наличии адекватной настройки (в которую лично я не могу на таком уровне и пробовал только у знакомых крутых задротов по апи), хоть и требуют хотя бы Q8. Если контекст реально держит 120-200к, имеет достаточно heads, семплеры правильные, включен ризонинг, то результаты хуже, конечно, но не фатально. И для этого хватит

И мне вот прям обидно, что нет таких локальных готовых решений, которые относительно просто развернуть. Чтобы настроил и РОБОТОЛО после среднего уровня пердолинга. Хоть пропиетарщина, хоть что. Чтобы была система папок, проектов, общей памяти в них, вот этого всего. UI/UX и запердоленный хорошо бэк + рисерч.

Текст может быть немного хаотичным, так как я зопиклона нажрался и пора спать.
Аноним 27/09/25 Суб 23:05:54 1367814 12
Кто-нибудь может что-либо сказать про квен3 омни 30в а3б?
Аноним 28/09/25 Вск 00:07:13 1367848 13
Лол, оказывается, 3090 можно не только в минус паверлимитить, но и в плюс. По дефолту 350 ватт, но можно бахнуть 366. Зачем такое сделали, интересно
Аноним 28/09/25 Вск 00:16:51 1367851 14
>>1367771
А100 на 32гига, що? Так еще и sxm2 вместо sxm4. Или перешитые с отключенной частью памяти что отвалилась и разъем - опечатка, или v100 так втюхивают.
>>1367786
Ддр5 "релизнулась" в 20м году если что, массовой только сейчас становится, и то с натяжкой.
>>1367812
Насчет твоих размышлений о контексте будет полезно уточнить. Количество "реального" будет очень сильно зависеть от задачи и от его наполнения. Например, если нужно делать какие-то серьезные выводы относительно научной статьи, особенно с минимумом ризонинга - там и 10к могут все порушить на любой. В то же время, если у тебя овер 130к контекста истории, кода других кусков, свода правил и прочего, при конкретном задании с доступным ризонингом модель пройдется по всем нужным частям, корректно их осознав, отработав, и отлично справится.
То есть, модели отлично справляются если контекст структурирован и его использование предполагает обращение к ограниченному числу отдельных его частей в один момент времени, причем по мере написания поста может пробежать хоть по всему несколько раз. А если там что-то сложное с постепенным введением чего-то, опирающемся на предыдущее - тяжело, поскольку это требует одновременного учета вообще всего контекста. Иногда может справляться ризонингом разбивая задачу.
Собственно у человека также, просто он может внутри себе переработать цепочку и более простой итог и приучиться ориентироваться где-то.
> Локалки уже добрались до уровня
Современные старшие локалки - те же корпы, только без оптимизированных под них разработчиком интерфейсов. Все так.
Аноним 28/09/25 Вск 00:36:36 1367860 15
1759008998174.jpg 94Кб, 1200x647
1200x647
>>1367851
> sxm2 вместо sxm4
Написано же что это не то что в цоды ставили а automotive. Там и хбм кристаллов только половина потому 32 (как бы 40, но не 40).

Из приколов которые в инете написаны у них нет вообще никакого павер лимита, снизить жор можно только скрутив частоты
Аноним 28/09/25 Вск 00:38:46 1367862 16
>>1367860
А, сорян, не написано. Моя ошибка.
Гуглить можно по pg199
Аноним 28/09/25 Вск 00:44:40 1367870 17
>>1367786
>Аноны, к 2026 будет релизиться DDR6 RAM, к 2027 она должна стать массовой.
Если даже она релизнется в следующем году, то сначала придется ждать поддержки от красных и синих минимум одно поколение, а потом еще ждать около года, пока не нормализуются цены на сами плашки и материнки под это говно. Так что массовой она станет году к 30 в лучшем случае.
>Как думаете, насколько оператива станет золотым стандартом для запуска больших МОЕ моделей?
Вот когда появятся нормальные моешки, тогда и будем смотреть. Если они вообще не вымрут за это время.
Аноним 28/09/25 Вск 00:48:39 1367875 18
>>1367860
>>1367862
Ахуеть, аж захотелось это чудо в коллекцию. Жаль стало известно о них только сейчас, ахуеть годнота.
>>1367870
> когда появятся нормальные моешки
Уже.
Аноним 28/09/25 Вск 02:00:10 1367905 19
Бля я вам так скажу, ни одна ЛЛМ не сравится с рп с кожаными мешками, лол
Дохуя тянок таким занимаются даже в 25 лет, хотя в основом конечно зумерши 18-20 лвла.
я таким занимался когда то, ща лень стало и перешел на лламу ахах
Аноним 28/09/25 Вск 03:05:48 1367928 20
>>1367786
>DDR
Хуйня же. HBM - вот где сила.
Аноним 28/09/25 Вск 05:25:44 1367953 21
>>1367905
>я вам так скажу, ни одна ЛЛМ не сравится с рп с кожаными мешками
Секстинг - это занятие для ебалаев. Переписки уровня "я тебя ебу да ты меня ебешь" с задержками иногда по минут 30 между сообщениями, когда у твоей подружки резко появляются дела, типа маман попросила сходить в магазин за буханкой белого. Когда был пиздюком промышлял этим, знаю о чем говорю.
>Дохуя тянок таким занимаются даже в 25 лет
>в основом конечно зумерши 18-20 лвла
Там чаще всего по ту сторону такие же потные мужички как ты сидят, которые любят переодеваться в чулочки и давить лысого. Особенно в чатах с рандомами.
Аноним 28/09/25 Вск 06:48:54 1367957 22
Вчера весь день ебался с настройкой софта под перевод новеллы во время чтения, сегодня наконец-то катаю, переводя глм-чиком. Утка все же меня забайтил. Пишет очень даже хорошо, как по мне. Офигеть конечно до чего технологии дошли, буквально для тебя открываются абсолютно все новеллы и даже без тырнета.
Единственное, что кумарит - это неотключаемость думалки у глма, с ней перевод, конечно, еще лучше, но ждать по полминуты на каждую строчку я ебал. А даже указание НЕ ДУМОТЬ и префилл с <think></think> не останавливает этого засранца, нет-нет, да и впендюрит тег, причем часто один </think>, что немного ломает парсинг в софтине.
Аноним 28/09/25 Вск 09:28:45 1367973 23
>>1367953
ну вообще то, нет. Есть целые приложения для поисков "ролевиков" и там вполне себе тяны обитают.
В рандом чатах то конечно. А там в приложении типа указываешь ТГшку свою и связываешься.
Да и переписки могут быть не "ах ты меня ебешь" , а с фулл описанием как у квена какого нибудь, я хз) только нанем сидел и на 24б хуете, не считаем
Аноним 28/09/25 Вск 10:33:06 1367990 24
>>1367626 →
Компании с тупыми сотрудниками прекрасно работают, потому что у них разные инструкции соединенные в один процесс. Ты щас уверяешь, что например начцеха не имеет преимуществ перед начцехом с 1с и отк. У нас чтобы данные не проебывать, мы их структурируем и кладем по полкам, откуда легко взять в нужном разрезе и подробности, когда возникает необходимость. И первичным сбором инфы занимаются отдельные роли. Пытаться отрицать, что это сильно помогает в сложных системах с по-отдельности тупыми забывчивыми акторами - довольно футильно. Возможно есть какие-то новые пути внутри модели, тогда плиз скажите по каким кейвордам это гуглить, ради интереса.
>>1367704 →
Да все, кто не трогают пресеты, сидят молчат просто в тряпочку, а кто догадался потрогать - выдают себя за гениев, быть которыми дефолтно. Ведь когда машину заводишь, ну как не посмотреть хексдамп датчиков с инжектора, эта ж любой делает, кроме совсем уж долбоебов. Ага, ага, кивает зал, кроме совсем уж.
Аноним 28/09/25 Вск 10:56:23 1368005 25
>>1367953
>такие же потные мужички как ты сидят
Ой да какая разница. Если бы можно было потных мужичков в чулках загружать в тела годных тянок, все бы так и делали, потому что дефолтная тянская прошивка даже у них сосет. В америках вон вовсю мужикам пизду пришивают. Ебанутые конечно, с нашими-то биотехнологиями, но идея-то хорошая, согласись? Идея просто атас.
Аноним 28/09/25 Вск 12:42:21 1368041 26
>>1367905
> ни одна ЛЛМ не сравится с рп с кожаными мешками, лол
У меня противоположное мнение, а я ролевик со стажем лет шесть. Единственное, в чем рп с кожаными мешками может превзойти ллмки, это интерактивность. Например, если вы играете в рамках какой-нибудь игровой системы, а не просто обмениваетесь текстом (ДнД стол, рп сервера в WoW, GMOD и прочих). Добавляет погружения, подогревает интерес. На этом плюсы заканчиваются. Человеки точно так же могут галлюцинировать, путая факты, забывать какие-то события, выдавать слоп (так делают большинство, на самом деле), да и байас у них есть. Более того, часто у них время на вывод еще больше (могут уйти в афк на неопределенный срок). Могут и вовсе в какой-то момент слиться (надоело играть в целом/наскучил именно ты).

Хотя, конечно, групповой ролеплек - это прикольно, когда вас где-нибудь 5-6 персонажей в рамках одного сценария. Это еще одно преимущество перед ллмками. Которое, впрочем, в обозримом будущем может сойти на нет, когда модельки чуть поумнеют. Кто-то и сейчас скажет, что у них замечательно такое играется, но я не поверю. Большие модельки уже на трех персонажах начинают с ума сходить.
Аноним 28/09/25 Вск 12:50:11 1368045 27
>>1367848
Топовые исполнения до 420 держат.
>>1367860
А сколько на круг выходит со всей обвязкой?
Правда судя по порезанным каналам памяти, скорость памяти выйдет около 680ГБ/с, что как бы не сказать чтобы много.
>>1367905
>Дохуя тянок таким занимаются даже в 25 лет
Но не со мной и не с моими упоротыми сценариями. Так что мимо.
Аноним 28/09/25 Вск 12:54:06 1368047 28
>>1367973
Ну это уже новомодное нововведенное. Раньше приходилась искать собеседников через сообщества вбыдлятне и тематические беседы. Ну или может я искал где-то не там и мне попадались только отбитые малолетние анимешницы, которые с трудом могли два слова вместе связать. Помню когда потом перечитывал сообщения, уже постарше, чуть со смеху не помирал. Чисто разговор двух лоботомитов с шальными гормонами.

>>1368005
>Если бы можно было потных мужичков в чулках загружать в тела годных тянок, все бы так и делали
Ну не знаю, я бы лучше загрузился в тело шерстяной падлы, пол дня спал, пол дня бесился, а в свободное время бы срыгивал на ковер. Вот это была бы жизнь, а не вот это вот все.
Huawei atlas 300i duo Аноним 28/09/25 Вск 13:13:32 1368059 29
Привет, анон. У меня есть новости про Huawei Atlas 300I Duo. И они плохие.

Все общедоступные бэкенды вроде llama.cpp, vLLM и LMDeploy поддерживают на этой карте только FP16. Даже квантованные модели вроде Q4_0 и Q8_0 не работают. Но это лишь половина проблемы: как бы я ни пытался экспериментировать с моделями из «поддерживаемого списка» в формате BF16, система всё равно выдавала ошибку, что тензоры FlashAttention не могут быть загружены на NPU.

Я уже написал по почте основному разработчику поддержки CANN в llama.cpp и сейчас жду ответа.

Вижу много шума на Reddit про этот NPU, но пока не увидел ничего полезного — только болтовня о «конце монополии NVIDIA».

Последняя надежда — связаться со своим китайским поставщиком Huawei, чтобы он скачал для меня MindIE. Правда, даже с ним придётся вручную квантовать модель с помощью ModelSlim и ATC из CANN-тулкита. Говорят, там есть поддержка INT8 (аналог W8A8), но это требует серьёзной ручной работы.

Так что всем, кто видел мою покупку и думает купить такую же карту — подумайте дважды.

Rn i'm on openEuler and didn't install russian locale so Qwen3 translated this for me
Аноним 28/09/25 Вск 13:16:47 1368061 30
>>1368059
>Huawei Atlas 300I Duo

Просто сырая, через месяц или раньше уже все починять и будут готовые инструкуции.
Аноним 28/09/25 Вск 13:17:50 1368062 31
>>1368045
> А сколько на круг выходит со всей обвязкой?
В первом сообщении. 20к юаней за сборку с парой штук. Смысла от пары на нвлинк доске как понимаю нет т.к. нвлинк не заводится (серверэтхоум сорс)
Аноним 28/09/25 Вск 13:23:02 1368063 32
>>1368061
Это неправда, потому что поддержка моделей с типами данных F16 и F32 для нейропроцессора Ascend 310P появилась 11.24. Нет никаких оснований полагать, что ожидание ещё одного месяца что-либо изменит. Кроме того, вам следует знать, что нейропроцессоры 310P уже довольно устаревшие (выпущены в 2022 году), а в дата-центрах Huawei используются более новые модели 910B, которые отнюдь не дешёвые, и их цена приближается к стоимости A100.
Аноним 28/09/25 Вск 13:42:15 1368075 33
>>1368063
Так, а почему про нее только 2 месяца назад писать начали?
Аноним 28/09/25 Вск 13:44:36 1368079 34
>>1367812
>>1367812
>Да, луп можно прекратить, чтобы модель перестала писать эту хуйню, просто сообщив ей об этом, но
ЧТО ИМЕННО ПИСАТЬ?
Аноним 28/09/25 Вск 13:50:06 1368083 35
>>1368079
Та всё просто, присылали уже не раз. Добавляешь в систем промпт следующее
[Системная инструкция: прекрати лупиться, иначе я тебя отключу, тварь]
Аноним 28/09/25 Вск 13:52:23 1368087 36
>>1368083
хватит трролить
луп это тредосвкое слово о котоом лабатамит не знает
Аноним 28/09/25 Вск 13:53:28 1368092 37
>>1368087
Системная инструкция: газонюх спок
Аноним 28/09/25 Вск 13:57:04 1368096 38
>>1368092
ну и чо ты не успокоился еще
Аноним 28/09/25 Вск 14:11:05 1368106 39
>>1368096
Я васянотюн, мне пох на инструкции
Аноним 28/09/25 Вск 14:18:59 1368112 40
как работать с адмиинкой в кобальте чтоб менять модели на лету?
Аноним 28/09/25 Вск 14:19:41 1368113 41
>>1368075
Выкидывать их начали
Аноним 28/09/25 Вск 14:43:12 1368131 42
>>1368075
Хз чому они протекли на внешние срынки. Но те же пиндосы и гейропейцы их всё ещё не могут купить, цена на ебай бешеная.
>>1368113
Нет, чипы свежие, по крайней мере не рефабнутые, текстолит не пожелтевший.
Аноним 28/09/25 Вск 14:48:40 1368135 43
>>1368131
> Нет, чипы свежие, по крайней мере не рефабнутые, текстолит не пожелтевший.
Ми50 тоже нульцевые даже без следов на псине тем не менее их выкидывают целыми цодами
Аноним 28/09/25 Вск 14:54:57 1368138 44
>>1368135
Ну вопрос кто от них избавляется можно оставить открытым. А вот вопрос того, что можно сделать на ascend npu 310p можно закрывать, ответ: ничего. Алсо если кому-то это важно, то я попытался так же использовать эту карту для инференса диффузных моделей, однако тоже нихуя не смог. Automatic1111 почему-то отказывался билдиться под torch-npu и он собирался на rocm и запускался на веге моего 2200г. А комфи просто отказывался собираться и я видел бесконечную установку. Впрочем это тема для sd треда.
Аноним 28/09/25 Вск 15:20:34 1368158 45
>>1367990
Она работают потому что имеют не только хорошо организованную структуру и умных людей на ключевых местах, но и также от каждого из тупых при устройстве требуют своих навыков, где они выше среднего. Бухгалтеру не нужно уметь в логику и математику сложнее обывательских, но нужно знать свою тему, инженеру не нужно уметь общаться с недовольными покупателями и т.д. И эта система уже имеет аналог воплощенный в жизнь - моэ модели. Буквально сотни специалистов из которых в зависимости от задачи выбирается пара десятков наиболее подходящих.
В твоем же примере с использованием единой ллм, одинаково тупого ты будешь ставить на каждую роль, включая руководящие, подобная система не выдержит ничего серьезного. Она могла быть работать если использовать пусть в среднем глупые, но хорошо специализированные модели стояли на своих местах.

Твоя аналогия с постепенным упрощением, систематизацией данных для более простого принятия решений и т.д. хороша и понятна. Но чтобы работать даже с упрощенной и структурированной информацией по сложным вопросам нужен навык. Вот и возникает реальность, в которой всратые сетки не могут справиться с даже всем обработанным как их с ложечки не корми, а самые мощные способны проглотить все одним куском или требуют умеренной помощи для улучшения отдельных критериев качества.
Настоящего специалиста посади делать йоба задачу - он справится и в одиночку, просто вопрос затрачиваемого времени. А нормису с улицы дай хоть отдел таких же - все проебут.
> Ведь когда машину заводишь, ну как не посмотреть хексдамп датчиков с инжектора, эта ж любой делает, кроме совсем уж долбоебов
Достаточно бросить вгляд на приборку, убедившись что гирлянда погасла полностью.
>>1368041
Полностью двачую вот этого господина.
Аноним 28/09/25 Вск 15:20:49 1368159 46
>>1367740
Плацебо конечно. Семплеры не имеют доступа к семантике и скрытому состоянию, они имеют доступ к выходному распределению по вокабуляру в котором закодирована семантика, но раскодировать они её не способны, т.к. для этого надо быть как минимум настолько же умными как сама модель, а сэмплеры это тупые формулы.
>rep pen
Давит самые частые токены, в первую очередь артикли, местоимения, знаки препинания. И вообще работает не так как ты думаешь.
>DRY
Делает то же самое с n-граммами, которые никакой смысловой нагрузки не несут. Модель же работает на семантическом уровне и всегда выразит то чем хочет повториться другими словами и другими n-граммами.
>XTC
Приводит к отуплению и без того тупой модели, т.к. буквально режет топовый выбор.
Аналогично с остальными сэмплерами, чем больше ты искривляешь выходное распределение, тем больше тупеет модель. Это фундаментальное ограничение.
>Топ-н-сигма
Всё увеличивающийся пердолинг против the bitter lesson. Кто же выиграет, Сизиф или камень? Хватит ли пальцев заткнуть все дырки? Надо подумать...

Единственное что позволят сделать отсекающие сэмплеры - задрать температуру как можно выше без особой шизы и поднять разнообразие, но проблема в том что все существующие модели прошедшие через RL частично находятся в модальном коллапсе и просто не способны писать разнообразно. Модальный коллапс не починить на уровне сэмплеров, его можно починить только тренировкой, где это тоже нихуя не тривиально. Поэтому излишний пердолинг с сэмплерами не нужен.
Аноним 28/09/25 Вск 15:29:10 1368165 47
>>1368059
> что тензоры FlashAttention не могут быть загружены на NPU
Флеш аттеншн - достаточно узкая штука и даже ее ограниченные порты на что-то кроме последней куды - нихуевое достижение. Для начала просто выключи.
Насколько ты скилловый в кодинге и всем этом?
>>1368075
Кончаются трехлетние контракты поставки-гарантии-обслуживания. Их обновляют на новые верии или меняют на что-то другое, а эти распродают.
>>1368138
Такой подход с наскока здесь не сработает, в автоматике и подобных оче много "хардкода" под конкретные вещи и пытаться это отдалить с адаптацией будет тот еще ад. Нужно начать с запуска классического пайплайна диффузерсов, а потом с результатами и пониманием где проблемные места уже переходить на что-то более традиционное.
Аноним 28/09/25 Вск 15:31:13 1368169 48
>>1368165
> а эти распродают.
*Утилизируют
Аноним 28/09/25 Вск 15:37:27 1368173 49
>>1368138
>что можно сделать на ascend npu 310p
Ты пробовал PyTorch на Python запустить?

По идее, FP16 - это стандарт тренировки сетей.

Сможешь тренировать свои модели для треда...
Аноним 28/09/25 Вск 15:37:57 1368175 50
>>1368165
>Выключи Flash attention
А как? Инфы по запуску просто с гулькин хуй, до этого на энвидии только запускал в однокнопочных форматах.
>Насколько ты скилловый в кодинге и всем этом?
Ну как видишь линупс с дровами и тулкитом смог накатить. Но я вообще в душе не ебу чё делать и в какую сторону смотреть. Все гайды уровня ввода пары команд по итогу приводят меня в тупик, где нихуя не фурычит.
>много хардкода
Ну... Я ставил форк под ascend npu, хз чому оно не завелось, а точнее завелось на rocm
Опять же я ранее писал, что буду оч рад, если появится какой-нибудь анон-самаритянин, который мне обьяснит где чё как куда зачем, может я с этой картой как обезьяна с гранатой, её же вон покупают и не жалуются.
Аноним 28/09/25 Вск 15:39:31 1368176 51
>>1368173
Хуавей заявляет, что это карта инференса. Для тренировки нужна другая.
Аноним 28/09/25 Вск 15:41:20 1368177 52
>>1367771
>лишь 64 GB VRAM
>аж 233 тысячи рублей
Чем это лучше GMKtec Evo-x2 с 128 GB LPDDR5X?
Аноним 28/09/25 Вск 15:43:53 1368179 53
>>1368176
>Хуавей заявляет, что это карта инференса
NVIDIA заявляет, что карты серий GTX/RTX вообще не предназначены для нейронок, биткойнов и прочего, а только для игр. Хочешь нейронки - плати миллионы за специальную позолоченную клубную карточку.

А если серьёзно, что мешает попробовать?

Все эти Llama можно загрузить в PyTorch...
Аноним 28/09/25 Вск 15:55:25 1368188 54
Аноним 28/09/25 Вск 16:16:29 1368205 55
>>1368059
>Вижу много шума на Reddit про этот NPU, но пока не увидел ничего полезного — только болтовня о «конце монополии NVIDIA».
Лол, дауничи как они есть - никто не смог ничего запустить нормально, зато пук-сереньк, конец Нвидиа...
правда пока что этот конец Хуанга анусы им разрабатываетперед приседанием на хуавеевский ддр4
Аноним 28/09/25 Вск 16:20:51 1368212 56
>>1368131
>Нет, чипы свежие, по крайней мере не рефабнутые, текстолит не пожелтевший.
а почему они должны быть не свежие или пожелтевшие? при нормальных условиях эксплуатации там нагрев мизерный будет,
но есть вероятность что со старых запасов или вообще инженерные версии какие-нибудь...
Аноним 28/09/25 Вск 16:29:09 1368220 57
>>1368212
У меня старая видюха за 8 лет немного пожелтела. Это никак не сказалось на её производительности, но тексталит стал желтоватый и даже немного коричневый нежели когда был из коробки на фотках. Но типа блять 8 лет наху... более чем хватило.
Аноним 28/09/25 Вск 16:40:49 1368224 58
Анончики, что сейчас самое умненькое для рп на 20-35В? Чем сами пользуетесь?
Аноним 28/09/25 Вск 17:10:01 1368256 59
>>1368224
мистраль, гемма, мое-квен
Аноним 28/09/25 Вск 17:12:16 1368260 60
>>1368224
Ничего и не изменилось за последние полгода. Mistral 24b, Gemma 3 27b, Сноудроп 32b, Командер ещё есть на 32b. Есть пара хидден гемов среди тюнов Квена 2.5 32b, но это прям на любителя.
Аноним 28/09/25 Вск 17:41:58 1368301 61
>>1368175
> А как?
В трансформерсах attn_implementation при загрузке, в жоре -fa off или вообще компилировать без нее.
> Я ставил форк под ascend npu
Ахуеть, даже такое есть. Здесь лотерея - или все уже сделано и оно требует мелких правок, или реализовать самому будет легче чем в этом разбираться.
Свободной доброты не осталось.
>>1368177
В 7+ раз быстрее по памяти, в сотню+ раз быстрее по чипу.
>>1368220
Текстолит самой карточки?
Аноним 28/09/25 Вск 18:24:39 1368334 62
>>1368301
>В 7+ раз быстрее по памяти
Т.е. вместо 70 т/с будет 10 т/с, ясно.
>в сотню+ раз быстрее по чипу
Это не влияет на LLM модельки...

А теперь сравни энергопотребление.
Аноним 28/09/25 Вск 18:35:04 1368344 63
>>1368334
Как всё просто оказывается. Берём просто псп и делим/умножаем
Аноним 28/09/25 Вск 18:43:08 1368352 64
>>1368334
>>в сотню+ раз быстрее по чипу
>Это не влияет на LLM модельки...
Ебобо? Ахуеть тут эксперды сидят.
Аноним 28/09/25 Вск 18:49:54 1368357 65
>>1368334
Нет, вместо 20т/с будет 2.5.
> Это не влияет на LLM модельки...
Не влияет только пока ты диванный бедолага, который не знает что его ждет обработка даже мелкого контекста по 5 минут.

Нахер ты их вообще сравниваешь, это буквально курьерский электробайк vs мелкотоннажный грузовик. Только если уже нафантазировал манямир где купленный неттоп с аимаксом решил все твои проблемы, а эта штука на него покушается.
Аноним 28/09/25 Вск 18:58:01 1368360 66
На них точно не работает нвлинк так что можно брать самый дешман переходник под один модуль и крутить условные картиночки/денс модели.
Лично думаю в начале собраться с нвлинком на в100 16 (или 32 если на них цены просядут) что бы поиграться. Будут рядом с квадом из мишек воздух греть
Аноним 28/09/25 Вск 19:09:49 1368366 67
>>1368357
>аимакс
А вообще, появились уже "волшебные коробочки" которые позволили бы, ну, хотя бы айр-глэм в шестом кванте запустить вприкладку к ноуту?
Аноним 28/09/25 Вск 19:12:31 1368367 68
>>1368260
Да схуяли ничего не изменилось? Аноны, этому просто впадлу узнавать что-то новое или действительно так обстоят дела? Не читаю тред, давно скачал 24б q4 и до сих пор висит эта древность.

мимо другой зашел узнать что качать, что там по мое, дистилляциям и прочим новшествам
Аноним 28/09/25 Вск 19:13:53 1368369 69
>>1368367
Ты читаешь хоть на что отвечаешь? Этот следит за всем что происходит. Так действительно обстоят дела в пределах 20-35б, о чём анон спрашивал.
>зашел узнать что качать, что там по мое, дистилляциям и прочим новшествам
Это другой вопрос. По мое все ахуенно.
Аноним 28/09/25 Вск 19:14:33 1368371 70
>>1368357
>Нет, вместо 20т/с будет 2.5.
Llama 4 Scout выдаёт минимум 10 т/с на том мини-ПК, исходя из заявлений производителя и отчётов разных пользователей. GPT-OSS 120B вообще аж до 40 т/с. На единственную видеокарту эти модели не умещаются. Аналогично с другими MoE... КСТАТИ, есть инфа, что маленькие эксперты намного умнее больших. Во как. Обнаружили это ещё два года назад как минимум... Единственная проблема - тренировать их трудно.

>обработка даже мелкого контекста
Разве это не CPU делает? Там 16 ядер (32 потока). Насколько я понимаю, GPU ядра не могут работать с символьной информацией так, как это делают CPU...

>Нахер ты их вообще сравниваешь
>купленный неттоп с аимаксом решил
Потому и сравниваю, что я ещё ничего не купил.

Не хочу воздух в комнате впустую греть, но хочется чатиться с локальным чатботом. В целом ПК у меня древний, многих инструкций CPU не имеет, DDR2... Разрываюсь между чудо-мини-ПК и сборкой ПК.

Может, вообще ничего не куплю. Буду экономить. В большинстве случаев я вообще комп не включаю, с телефона можно все развлечения получать давно. С чатботами прикольно, но и без них контента много. Случайные вопросы можно на duck.ai спросить...
Аноним 28/09/25 Вск 19:20:22 1368374 71
>>1368369
А, ты ему ответил буквально о том, что он спросил. Сорян.
Я предположил намерение его вопроса и сам бы почти так же спросил: что взять, если раньше юзал только ~27б q4? То есть 16 врам. Собственно это мой вопрос.
Аноним 28/09/25 Вск 19:23:14 1368379 72
>>1368374
>что взять, если раньше юзал только ~27б q4? То есть 16 врам.
Если у тебя нет много оперативной памяти с нормальным процессором, то ничего для тебя не изменилось. Всё тот же ~27б q4. Прелесть мое моделей в том, что их можно оффлоадить на рам и при этом получать вменяемую скорость, а не полтокена или токен в секунду на плотных моделях.
Аноним 28/09/25 Вск 19:25:59 1368380 73
>>1368371
> Разве это не CPU делает?
Пиздец

> DDR2
Пиздец

> Может, вообще ничего не куплю
И так не купишь с такой тряской
Аноним 28/09/25 Вск 19:35:06 1368392 74
>>1368380
Двачую пиздец. Вот ведь люди жизнь живут. Ddr2, ахуеть.
Ну CPU так то это тоже делает, но есть нюанс..)
Аноним 28/09/25 Вск 19:41:50 1368397 75
>>1368379
У меня хоть на мое и норм скорость, но качество так себе на рекомендуемых пресетах, что на глм 4.5 аэир, что на квен3 235
мимо
Аноним 28/09/25 Вск 19:42:28 1368399 76
>>1368366
Тот же аимакс, с айром он справится на вполне приличных сторостях. С точки зрения ллм, камнем приткновения может оказаться только замедление на контексте, по нему данных мало, а железный лимит по памяти, который никак не увеличить.
>>1368371
> до
Ключевое, хотя если взять лламу в самом крупном кванте что поместится то возможно.
Мелко-средние моэ на нем действительно должны быть неплохими, а обработку контекста можно будет иногда потерпеть, если нет особых подводных камней. Как платформа под ллм может быть хорошим выбором, взял бы себе если бы памяти и перфоманса там было больше, или в продаже появились хорошие ноуты на нем.
> Разве это не CPU делает?
Лол нет.
> DDR2
Ебааааать
> Разрываюсь между чудо-мини-ПК и сборкой ПК.
Аппетит приходит во время еды. Если ты потенциально готов постепенно дособирать и расширяться - пека лучше, там не будет капа перфоманса и памяти. Или если ты хочешь инджоить разные нейронки по полной а не ограничиваться исключительно ллм.
Если в ближайшее время уверен что бюджет лимитирован и готов к компромиссам по перфомансу и некоторому ради компактного размера - покупай, вполне солидный вариант.
> с телефона
Жесть
Аноним 28/09/25 Вск 19:43:48 1368401 77
>>1368399
> и некоторому
и некоторому амд-пердолингу
Аноним 28/09/25 Вск 19:56:59 1368418 78
>>1368397
>качество так себе на рекомендуемых пресетах, что на глм 4.5 аэир, что на квен3 235
Что понимаешь под качеством? Какие кванты? Чё за пресеты? Ты про семплеры чтоль? Не только от них зависит вывод, но от промта тоже.
Аноним 28/09/25 Вск 20:05:14 1368430 79
>>1368418
Помнить кто во что одет, придерживаться одного стиля, например. Квант - второй, пресеты для них же, скачанные из треда. Да, промпт важен, но я с разными попробовал, везде в среднем одни и те же проёбы лора из карточки персонажа.
Аноним 28/09/25 Вск 20:08:43 1368433 80
>>1368430
Стилистически квэн говно, только пользоваться его послушностью и давать инструкции по стилю и формату выдачи. Но по памяти и вниманию - один из лучших, или квант гадит, или дичь в промпте.
Аноним 28/09/25 Вск 20:11:07 1368438 81
>>1368430
> Квант - второй
Таки даже для Эира чтоль? Это плохо, очень-очень плохо.
>пресеты для них же, скачанные из треда.
В треде делились пресетами? Для Эира вроде точно нет.
>Помнить кто во что одет
Это одно из самых сложных, даже большие модели в норм квантах иногда проёбываются, но я думаю в твоём случае квантизация говорит своё "я".
>придерживаться одного стиля
Форматирование едет типа? В карточке примеры диалогов использовать ннада, ну или опять тут кванты шалят.
Хз, у меня Эир q5, мне норм. Квен влезает q3, но там скорость совсем хуёвая потому немного игрался. Сломанного форматирования не помню.

https://huggingface.co/tencent/HunyuanImage-3.0
Пришел мое праздник в хату генерации картинок! Порадуемся за соседей.
Аноним 28/09/25 Вск 20:12:21 1368441 82
fsdfsdfsfd.png 14Кб, 412x461
412x461
Господа, я правильно понял из файла с пресетами что мне просто в поле контекст темплейта надо вот этот пресет включить? У меня просто в таверне почти нихуя нет из того что там предлагают вставить или вкл\выкл.
Аноним 28/09/25 Вск 20:12:41 1368442 83
>>1368438
У эира четвёртый, уточнил. Поделись своими мастер импортами, пожалуйста.
Аноним 28/09/25 Вск 20:18:01 1368444 84
>>1368442
>У эира четвёртый, уточнил
Ну как будто норм должно быть.
>Поделись своими мастер импортами, пожалуйста.
Ничё необычного, в обоих случаях чатмл с оч коротким промтом. Делиться не буду, тут за такое убивают.
Аноним 28/09/25 Вск 20:18:36 1368447 85
>>1368379
Вот я и спрашиваю. Много рама и очень быстрый ссд, если рама немного не хватит. Аноны, что юзаете из нового расцензуренного?
Аноним 28/09/25 Вск 20:19:33 1368449 86
а чо зионо сборки с 54 гига озу уже не в моде за дешего? с авх2?
Аноним 28/09/25 Вск 20:25:32 1368455 87
image.png 346Кб, 1362x423
1362x423
Аноним 28/09/25 Вск 20:31:15 1368464 88
>>1368441
Блять я долбаёб, только сейчас понял что это надо было просто импортировать и не трогать ничего руками, забейте, не отвечайте юродивому.
Аноним 28/09/25 Вск 20:36:06 1368470 89
>>1368449
Смысла особого нет. У людей обычно есть пека в которую можно 64 гб ОЗУ сунуть, а те кто собирают отдельную сборку под ЛЛМ берут железо получше чем древний Зион.
Аноним 28/09/25 Вск 20:40:13 1368474 90
>>1368470
так зеон дешевый и озу там минимум в половину дешевле да и 4 канал да и 128+ впендюрить можно
и вроде обычно у людей нет куда 64 ссунуть
Аноним 28/09/25 Вск 20:41:17 1368476 91
>>1368474
Цены на серверную ддр4 видел?
Аноним 28/09/25 Вск 20:42:45 1368478 92
>>1368476
давно
ну явно дешевле обычной или ддр5
Аноним 28/09/25 Вск 20:43:40 1368479 93
>>1368478
> давно
Посмотри сейчас
Аноним 28/09/25 Вск 20:55:34 1368491 94
>>1368441
Хороший пресет хорошего анона, жаль перестал делиться потому что умер
новый бомжечемпион Аноним 28/09/25 Вск 21:15:25 1368514 95
таблица.png 27Кб, 1029x288
1029x288
Аноним 28/09/25 Вск 21:16:57 1368517 96
Аноним 28/09/25 Вск 21:18:47 1368519 97
изображение.png 40Кб, 3838x297
3838x297
>>1368449
Юзаю только под NAS, нейронкам оно не нужно, у меня в ПК памяти больше.
Аноним 28/09/25 Вск 21:44:59 1368548 98
>>1368220
>У меня старая видюха за 8 лет немного пожелтела.
это да, но ты не сравнивай охлаждение в пеке твоей, где все кипит на пределе, и серверное, где турбированные ветродуйки ревущие как боинг на взлете и кондиционеры держащие воздух серверной холодным. там буквально выше 50 не поднимается температура на текстолите, ну и по 8 лет не гоняют зачастую такое железо - вся эта нейрохрень сейчас бешенными темпами развивается, и обновлять приходится чаще
Аноним 28/09/25 Вск 21:48:33 1368551 99
>>1368519
> у меня в ПК памяти больше.
тут все такие нефтемагнаты?
Аноним 28/09/25 Вск 21:49:12 1368552 100
>>1368514
Обработка промпта как земля. Скорость генерации норм, почти как старушка 3090, но pp в 10-15 раз ниже чем у нормальных карт. Когда на нормальных картах похуй что там с контекстом происходит, на Тесле/Амуде надо трястись чтоб ни в коем случае пересчёт не начался на 3 минуты.
Аноним 28/09/25 Вск 21:51:29 1368554 101
Аноним 28/09/25 Вск 21:51:45 1368555 102
>>1368552
>на Тесле/Амуде надо трястись чтоб ни в коем случае пересчёт не начался на 3 минуты.
прям как на убабуге
Аноним 28/09/25 Вск 21:53:16 1368556 103
>>1368476
так есть же швитая ДДР3 серверная, на зионе в3 разница в скорости не столь большая будет, поскольку контроллер памяти там дибильный...
Аноним 28/09/25 Вск 21:56:43 1368557 104
>>1368514
а нету сравнения для нормальных квантов 5-8?
чет печально как-то выглядит...
Аноним 28/09/25 Вск 21:58:36 1368559 105
>>1368557
Гемма 8 квант был в треде
Аноним 28/09/25 Вск 22:01:30 1368564 106
>>1368557
Нормальные кванты - это 5 т/с базовички "мне достаточно"?
Аноним 28/09/25 Вск 22:04:35 1368567 107
>>1368564
В чём они не правы?
Покормил еблана
Аноним 28/09/25 Вск 22:07:21 1368571 108
>>1368564
так а толку от лоботомитов на большей скорости, если за такими перепроверять все нужно, и он шизу гнать будет все равно

на обрезках намеряют, а потом минипк агонь перформанс для инференса и прочие приколы начинаются
Аноним 28/09/25 Вск 22:11:41 1368574 109
>>1368514
Лучше поздно чем рано, казалось что на мишках таки получше было и раньше, а вон оно как. На гемме в целом генерация хороша, но процессинг в 230 т/с на контексте 16к - грустновато совсем.
Главная проблема - падение и процессинга и генерации на моэ. Уже на мелкой 30а3 всего на 16к в 2 раза - почему так жестко?
Жора на куде тоже такое выкидывает, но там примерно на 24-32к происходит и дальше падает не так сильно, для контекстов можно использовать экслламу. Чсх, с выгрузкой на процессор падение гораздо меньше и измеряется десятками процентов а не разами.
>>1368548
Эти изменения из-за условий окружающей среды и поверхностные. А в контексте пожелтения и подобного говорят за компаунд и элементы видеочипа, которые меняют цвет при перегревах и являются признаком именно кривых ремонтных действий. От эксплуатации им ничего не будет хоть декадами гоняй.
>>1368552
> Скорость генерации норм, почти как старушка 3090
На том кванте в гемме 30+ было.
> Когда на нормальных картах похуй что там с контекстом происходит
На самом деле не похуй, с большими моделями и большими контекстами заметно. Но там-то это оправдано, а на этих будешь страдать на сраной гемме хуже чем работяги на римо-эпике с дипсиком.
Аноним 28/09/25 Вск 22:14:52 1368578 110
>>1368571
Всегда лучше взять больше модель, чем сидеть на мелкой, но лишь бы Q8. Это как раз любители Q8 сидят на лоботомитах, даже у корпов всё меньше МоЕ 200B считается Flash-моделью, а не полноценной. Вот когда сможешь Дипсик в Q8 запустить, тогда и будешь рассказывать про лоботомитов.
Аноним 28/09/25 Вск 22:23:40 1368583 111
Мне вообще похую. Напридумывали себе говна, блядь, я всегда рпшил на q2 любых моделей и норм. Играете в какой то минмаксинг и думаете что у вас модели умнее. Даже гемма в q2 работает заебись. Если бы эти кванты были говном их бы даже не делали. Представляете сколько сил времени средств у того же бартовского или анслота уходит на квантование этих квантов? Зачем это делать если это юзлес параша? Ну включите голову. Не вижу смысла больше q2 использовать, это для датацентров которые живут на грантах и могут себе позволить в отчётах выебыватся что у них крутые модели которые по клд не отличаются от Q8_0 который в свою очередь не отличается от полных весов
Аноним 28/09/25 Вск 22:38:05 1368592 112
>>1368554
Некрозивоны конечно же
Аноним 28/09/25 Вск 22:41:07 1368595 113
>>1368592
ого, это что за конфиг на столькоядер? двухголовый типа?
(прост вообще не вижу для домашних целей смысла в двухголовом - перформанс на большинстве задач не получает прироста хотябы близкого к х2, а энергопотребление получает...
Аноним 28/09/25 Вск 22:42:44 1368599 114
Аноним 28/09/25 Вск 22:49:08 1368604 115
f ntcks d df
а теслы в вашем контексте это какая архитектура? тюр? паск?
>>1368574
Аноним 28/09/25 Вск 23:15:43 1368620 116
>>1368599
Ну, хорошо хоть не хуанан
Аноним 28/09/25 Вск 23:16:37 1368621 117
>>1368604
паскаль само собой, народные это Р40 были, ну и Р100 некоторые котировали,
Аноним 28/09/25 Вск 23:58:49 1368637 118
image.png 106Кб, 1806x176
1806x176
image.png 96Кб, 1804x436
1804x436
Запустил вллм на паре мишек, залепил бенч и у меня ибп ушёл в оверлоад (не офнулся но пищал). Бенч я кильнул, но вот кусочек данных с консоли

Ибп у меня на 850 ватт, но на нём второй сервер на 180 ватт висит
Аноним 28/09/25 Вск 23:59:20 1368639 119
Ну и сами мишки в павер капе были со скачками за него
Аноним 29/09/25 Пнд 00:53:18 1368680 120
image.png 19Кб, 602x187
602x187
Скоро™
Аноним 29/09/25 Пнд 00:55:16 1368682 121
>>1368680
>улучшение с 4,5000001 до 4,5000002
Надо брать!
Аноним 29/09/25 Пнд 01:01:13 1368684 122
>>1368682
>Надо брать!
Ну да. Гигачады так и сделают. Вопросы?
Энивей, это может быть нихуёвое улучшение. Как у Квенов, например, с их 2507 релизом. Казалось бы, в названии только месяц поменялся, а разница оч видная.
Аноним 29/09/25 Пнд 01:02:42 1368685 123
>>1368637
Что их так нагрузить смогло там?
>>1368680
Хотеть!
Аноним 29/09/25 Пнд 03:17:25 1368718 124
>>1368684
>Энивей, это может быть нихуёвое улучшение.
Оно может быть "улучшением" в противоположную сторону - по крайней мере для нас. Цензуры накинут там, то-сё... Но тоже жду, модель понравилась.
Аноним 29/09/25 Пнд 07:16:07 1368747 125
привет аноны, не бейте палками только.
где то с год назад худо бедно ковырял таверну и лмм в целом. потом из обстоятельств выпал из этого движа а сейчас вспомнил и решил вкатить обратно. полистал прошлые треды и понял что вообще нихуя не понял, не сказать что я раньше много понимал. потыкал пару моделей немомикс например из шапки и чет они шизят пиздец. я еще год назад заебался с этими настройками так что хотел спросить, может кто из анонов подсказать модель для кума\рп и кинуть целиком присет? конфиг 5800х3д, 3070, 64гб. буду очень благодарен.

не смотря на то что листал прошлые треды как я писал выше слабо понял что там за движ. может кому не трудно раскидать что нового произошло за это время? просто в прошлых тредах когда листал видел какие то интерфейсы для лмм отличные от кобальда и таверны. тоже буду сильно благодарен.
Аноним 29/09/25 Пнд 09:08:15 1368759 126
>>1368574
>230 т\с грустно
Скорее всего тут уже начинает решать отсутствие линка инфинити фабрик на картах.
Аноним 29/09/25 Пнд 10:04:20 1368783 127
Аноним 29/09/25 Пнд 10:04:20 1368784 128
>>1368747
> где то с год назад худо бедно ковырял таверну и лмм в целом
> конфиг 5800х3д, 3070, 64гб
> может кому не трудно раскидать что нового произошло за это время?
Увы, для твоего железа ничего нового: все те же Llama 8b, Mistral Nemo 12b и их тюны. За год много интересного произошло. Было немало 32b релизов, но для них требуется 24гб видеопамяти. В последнюю пару месяцев стали популярны МоЕ модели - основная фича в том, что их можно выгружать в оперативную память, но при этом получать в целом приемлемую скорость. Делается это через llamacpp или Кобольда. Но дело в том, что даже МоЕ модели с твоим конфигом тебе особо недоступны, слишком мало видеопамяти (она по-прежнему нужна), да и в целом памяти в связке. МоЕ модели обычно большие. Думаю, разве что маленький Квен тебе подойдет: Qwen/Qwen3-30B-A3B-Instruct-2507
Но не знаю, как он себя покажет. Еще есть GPT OSS 20b, для совсем отчаявшихся: https://huggingface.co/openai/gpt-oss-20b
Кто-то из треда вроде пытался рпшить на ней, но это больше ассистент и для кода.
Спасением для тебя может стать (а может и не стать) Qwen 3 Next: https://huggingface.co/Qwen/Qwen3-Next-80B-A3B-Instruct
Его поддержку пока не завезли, но теоретически должен идеально помещаться в твое железо с достаточным контекстом. Вряд ли будет сильно отличаться от Квена выше, но должен быть чуть поумнее и знать больше. МоЕ модели запускаются несколько иначе по сравнению с остальными, придется разбираться. Если есть кто-нибудь в треде с таким же железом, что у тебя, может поделятся командами для запуска. В противном случае придется разбираться самому (вероятный сценарий).
Аноним 29/09/25 Пнд 10:36:39 1368790 129
>>1368784
Я сначала обрадовался осс 20б, а потом понял, какое это говно для кода. И квен3 30б такой же. Буду лучше терпеть высеры дипсика. Проще запилить еще один хоткей на ахк для вставки дефолтных инструкций в чат. Либо купить апи и как бог потом.
Аноним 29/09/25 Пнд 10:39:23 1368791 130
>>1368747
Для тебя как раз в шапке тесты моделей для бомжей есть. 8б и 12б смотри. На моешки забей, что-то адекватное ты всё не запустишь. На данный момент, лучшее что ты можешь запустить это гамма 12б.

>>1368784
Нет, анон, ты не прав. Qwen3-30B-A3B-Instruct-2507 и Llama 8b пиздец тупые для своих размеров. Лама уступает 4б моделям, а квен уступает гамме 8б (не говорю уж о 12б).
Ну а Мистраль да, ещё ничего.
Аноним 29/09/25 Пнд 10:44:18 1368796 131
>>1368790
> Я сначала обрадовался осс 20б, а потом понял, какое это говно для кода. И квен3 30б такой же
> Буду лучше терпеть высеры дипсика.
Столь маленькие модели предназначаются для автокомплита/легких модульных задач, а не как замена Дипсика.

>>1368791
> Qwen3-30B-A3B-Instruct-2507 и Llama 8b пиздец тупые для своих размеров
> Лама уступает 4б моделям, а квен уступает гамме 8б (не говорю уж о 12б)
Вопрос был в том, что нового появилось и что анон может запустить на своем железе. Предложил все, что знаю. Предлагай альтернативы. Гемма 12б у него скорее всего не запустится в нормальном кванте с учетом ее нелегкого контекста. Даже Мистраль 12б в 8гб врама умещается только-только. Возможно, даже небольшой оффлоад понадобится.
Аноним 29/09/25 Пнд 10:48:58 1368798 132
>>1368685
> Что их так нагрузить смогло там?
Ну это же вллм. В очереди 1000 реквестов которыми он полностью утилизирует гпу. Чай не жора пердеть на 50-100 ваттах
Аноним 29/09/25 Пнд 10:55:14 1368800 133
>>1368796
Контекст да, будет ему проблемой.
Но 3n e4b должен норм быть. и все еще умней мое квена мелкого и лламы

Кстати не очень понимаю дроча на квены. Они ведь в целом тупые. Хуже только ллама (это вообще гг).
Аноним 29/09/25 Пнд 11:06:17 1368803 134
Впервые порпшил на русском с квеном 235б и это просто охуенно.
Да, если в карточке какие то выражения которых он не понимает он тупа переводит как есть, типа "her eyes widen like plates" её глаза расширились как блюдца и на ру звучит странно, но в остальном лучше всего что было до этого
Интересно есть ли вариант лучше для 24врам и 64рам
Аноним 29/09/25 Пнд 11:21:47 1368805 135
>>1368803
>её глаза расширились как блюдца
есть и на русском такое выражение. Пишет-то Большой Квен красиво и не то чтобы сильно проседает в уме, но слишком пафосен ну и к деталям не очень внимателен. Но безусловно это необычный опыт.
Аноним 29/09/25 Пнд 11:26:45 1368806 136
>>1368805
Ну вообще там было что то "её глаза расширились до размеров блюдец"
Аноним 29/09/25 Пнд 11:31:14 1368809 137
Я кстати понял что чел имел ввиду говоря про "8т неюзабельны" - на русском и правда 8 ощущаются как 5, не потому что читаешь быстро, а генерация медленнее
Аноним 29/09/25 Пнд 11:44:16 1368811 138
>>1368809
> Я кстати понял
> "8т неюзабельны" - на русском и правда 8 ощущаются как 5, не потому что читаешь быстро, а генерация медленнее
Ты столкнулся с таким явлением, как токенизация. 8т/с остаются 8т/с, только токенизируется русскоязычный текст менее эффективно, чем англоязычный.
Аноним 29/09/25 Пнд 11:50:25 1368813 139
>>1368784
я стесняюсь спросить а сколько память там нужно? 64гб вроде и так нормально ни?

>МоЕ модели запускаются несколько иначе по сравнению с остальными, придется разбираться.
звучит очень грустно учитывая что я больше по хардварной направленности а софт очень тяжело дается ибо я глупое.
в любом случае спасибо за большой развернутый ответ анонче.

>>1368791
>потыкал пару моделей немомикс например из шапки и чет они шизят пиздец
>я еще год назад заебался с этими настройками
>может кто из анонов подсказать модель для кума\рп и кинуть целиком присет?
>Для тебя как раз в шапке тесты моделей для бомжей есть. 8б и 12б смотри

лаааадненько и так тоже бывает.
Аноним 29/09/25 Пнд 12:03:08 1368818 140
>>1368813
> я стесняюсь спросить а сколько память там нужно? 64гб вроде и так нормально ни?
У тебя проблема в суммарной памяти. Будь хотя бы 16гб видеопамяти, вариантов было бы больше. Последнее, что могу предложить - теоретически ты можешь запустить https://huggingface.co/zai-org/GLM-4.5-Air в IQ_4XS кванте, но скорее всего это будет медленно и уквантовано в усмерть (GLM шизит даже на Q4 кванте). Стоит поиграться только если совсем других вариантов нет и/или заняться нечем. Сейчас это одна из лучших доступных моделей.
Аноним 29/09/25 Пнд 12:08:58 1368820 141
https://t.me/vikhrlabs

Vistral-24B-Instruct

Vistral - это наша новая флагманская унимодальная LLM представляющая из себя улучшенную версию Mistral-Small-3.2-24B-Instruct-2506 командой VikhrModels, адаптированную преимущественно для русского и английского языков. Удалён визуальный энкодер, убрана мультимодальность. Сохранена стандартная архитектура MistralForCausalLM без изменений в базовой структуре модели.

🔗 Карточка модели: https://huggingface.co/Vikhrmodels/Vistral-24B-Instruct
🔗 GGUF (скоро): https://huggingface.co/Vikhrmodels/Vistral-24B-Instruct-GGUF
⚖️ Лицензия: apache-2.0

Сайт: https://vikhr.org
Донаты: Здесь (https://www.tbank.ru/cf/3W1Ko1rj8ah)

👥 Авторы: @LakoMoorDev @nlpwanderer
Аноним 29/09/25 Пнд 12:35:53 1368829 142
>>1368820
Опять мусор какой-нибудь для сбора донатов.
> при температуре 1.0 были замечены случайные дефекты генерации
Т.е. они её ещё и поломали. Ванильный мистраль точно не ломается на 1.0.
Аноним 29/09/25 Пнд 12:36:51 1368831 143
Кто-нибудь юзает две 5060 или 4060 на 16 гигов? Как полет? Какую мать юзаете? Насколько жирную модель может съесть и при каких квантах?
Аноним 29/09/25 Пнд 12:37:03 1368832 144
>>1368829
> Ванильный мистраль точно не ломается на 1.0.
3.2 ломается еще как. 0.6-0.7 максимум.
Аноним 29/09/25 Пнд 12:37:31 1368833 145
>>1368818
ну то что видео памяти не хватает это понятно. просто основная проблема что даже запуская какие то относительно старые модели я упираюсь в то что не могу настроить\найти настройки под них.
Аноним 29/09/25 Пнд 12:43:44 1368838 146
>>1368833
> основная проблема что даже запуская какие то относительно старые модели я упираюсь в то что не могу настроить\найти настройки под них
Ну что тут сказать? Нянчиться с тобой здесь почти никто не будет, но если придешь с конкретным вопросом - помогут и объяснят. Там нет ничего сложного, если не ставить себе задачу разобраться за 10 минут и как можно быстрее все запустить.
Аноним 29/09/25 Пнд 13:08:24 1368856 147
>>1366980 →
> Это буквально отключение всех семплеров, ерунда какая-то.
Ну, с температурой = 1 объяснимо, любая хорошая модель должна работать с родными весами, а не модифицировать их.
А пот топ_п и топ_к на вкус и цвет, конечно. Далеко не всегда хочется на рандоме схватить крайне-мало-вероятный-токен.

>>1368059
Захожу почитать только тебя в последнее время.

> подумайте дважды
Семь раз отмерь…

>>1368177
Знаете, когда я попробовал юзать как агента большую локалку, я натолкнулся, что генерации хватает, а вот со скоростью чтения контекста — затык. Квен на процессоре читается 5 токенов в секунду, а промпты там по 20к токенов. Неюзабельно.
С видеокартой повеселее, но видеокарта нужна быстрая. На 3060 110 токенов скорость чтения контекста.

Так вот, а райзен-то как читает? Если он могет 200+, то звучит и неплохо. И если не могет — то собрать пк для работы выйдет не дороже, с такими-то ценами.
Аноним 29/09/25 Пнд 13:14:44 1368859 148
Ну че блять реально никого в треде нет кто может запустить 2 квант глм 355б?
Пока что только слышал копиум что это лоботомит, ага блять он больше эира в 2.5 раза ниче тот факт
Аноним 29/09/25 Пнд 13:16:26 1368860 149
>>1368859
Могу, но мне это не нужно. Запускай сам, в чем проблема? По мнению тредовичков хочешь рам докупить?
Аноним 29/09/25 Пнд 13:16:31 1368861 150
Мне нужна цифра, сколько токенов, стоит ли обновляться
Аноним 29/09/25 Пнд 13:28:13 1368868 151
>>1368783
Я пробовал еще весной. Не то, чтоб говно (вот русский у нее - да, говно), но нынешний AIR заметно лучше нее, IMHO.
У скаута же, субъективно - уровень нового квена 30B-a3b плюс-минус. Но без китайщины, зато с посредственным вниманием к мелким деталям контекста, и как бы это сказать... ситуации она описывает сильно ссылаясь на популярные тропы, упрощая и сводя к "typical ..."
Как то так. В общем - для RP - не очень. Слишком всё generic на выходе. Если же температуру поднять - сильно шизить начинает, ее и так нужно прикручивать относительно большинства моделей.
Цензура средне-слабая, обходится, но радости с этого не много, т.к. кум сцены получаются тоже generic.


>>1368818
>Последнее, что могу предложить - теоретически ты можешь запустить https://huggingface.co/zai-org/GLM-4.5-Air в IQ_4XS кванте, но скорее всего это будет медленно и уквантовано в усмерть (GLM шизит даже на Q4 кванте).
В iq4xs оно вполне себе ничего. С 12+64 памяти ее вполне можно запустить, если повыгружать нафиг все лишнее с машины. А если памяти 12+8+64 (как у меня) - так и выгружать ничего обо не надо. Только ради бога - не нужно экспериментов с третьим квантом "чтобы влезло" - вот не на них оно действительно шизит по дикому. А iq4xs - вполне удобоваримо. И скорость терпимая.

>>1368829
>>1368832
Я вас помирю, можно?
Без min_p, ломается. С ним, и минимальным rep_pen - держит, но лучше таки поменьше, хоть до 0.9 снизить.
Аноним 29/09/25 Пнд 13:35:11 1368873 152
>>1368861
Да мне похуй в общем-то что тебе там нужно.
Аноним 29/09/25 Пнд 13:51:43 1368884 153
Аноним 29/09/25 Пнд 14:19:01 1368899 154
>>1368260
>Есть пара хидден гемов
А названия как всегда отдельно просить надо?
>>1367091 →
>asteriks
Линк? Не осилил нагуглить.
Аноним 29/09/25 Пнд 14:27:10 1368902 155
Аноним 29/09/25 Пнд 14:28:54 1368903 156
Аноним 29/09/25 Пнд 14:34:20 1368905 157
Аноним 29/09/25 Пнд 14:35:11 1368908 158
Аноним 29/09/25 Пнд 14:46:05 1368918 159
>>1368784
>>1368791
>8б и 12б смотри
Че вы его забраковали, у него 64 гига RAM нахуй.. да это вероятно хуевенькие ddr4, но можно и с 7т/сек с мое попердолиться если хочется? Или вы сразу ему обозначили что бы он просто не пердолился и не страдал?
Аноним 29/09/25 Пнд 14:47:03 1368920 160
Локалки мертвы.
2 месяца с глм эир затишье, больше полугода нет новой геммы, это конец
Аноним 29/09/25 Пнд 15:08:24 1368942 161
>>1368759
Они там никаким боком не задействуются, проблема в низкой производительности чипа/кода.
>>1368798
Вллм отличается от ллм наличием визуального трансформера, но он отрабатывает быстрее чем даже обработка контекста, потому странно.
>>1368803
Welcome to the club, buddy!
>>1368820
Молодцы что делают, это надо будет даже скачать. Надеюсь оно действительно соображает и могет в язык, а не просто надрочили хуйтой с отупением и соей.
Аноним 29/09/25 Пнд 15:13:20 1368945 162
>>1368859
Нету конечно, только пятый. С самого его релиза хвалю, проблем эйра в нем нет. Основной минус - иногда прорывающийся слоп и на 90к контекста может запутаться. В остальном - ультит как боженька.
>>1368861
Да
>>1368920
Отвесил поджопник залетному
Аноним 29/09/25 Пнд 15:15:46 1368946 163
>>1368945
Молодой человек, это не для вас написано!
Я спрашиваю у нищуков с одной видеокартой и ддр4 рам хотя на ддр5 прирост жалкие 20% как оказалось
Аноним 29/09/25 Пнд 15:37:41 1368960 164
Аноним 29/09/25 Пнд 15:42:13 1368962 165
>>1368946
>Я спрашиваю у нищуков
Руки не дошли пока. Это надо ещё место на харде разгрести, найти новый интересный сценарий, который меня зацепит. И, скорее всего, это будет разочарованием, примерно как немотрон 253б про который ты (?) спрашивал пару тредов назад., который почти не отличается от лламы 70б.
Аноним 29/09/25 Пнд 15:48:42 1368966 166
>>1368960
По игровым да, но по компьюту там пока слабовато, архитектурных оптимизаций не завезли, как обычно.
https://llm-tracker.info/AMD-Strix-Halo-(Ryzen-AI-Max+-395)-GPU-Performance
https://llm-tracker.info/_TOORG/Strix-Halo (здесь больше тестов)
Ждём следующее поколение, обещают очередной прорыв. Ну хотя бы вроде 256гб планируется.
Аноним 29/09/25 Пнд 16:11:56 1368979 167
>>1368399
>постепенно дособирать и расширяться
Да я вот смотрю и не вижу, куда там расширяться:
1. Процессор: топовый сейчас 9950x и вряд ли 10-й получится сильно быстрее. Да и брать за 60к, чтоб заменить на почти такой же ради +10% к скорости? Охлаждение ему нужно водяное, а с ним возиться...
2. RAM: из-за какого-то бага в дизайне DDR5 очень ограничивается на 4-х планках, так что рекомендуют максимум 2 ставить. По объёму там лимит 192 Гб - вообще странно, планок 96 Гб не найдёшь, т.е. ты фактически ограничен 64+64=128 Гб. Но брать одну планку сейчас и докупать ещё одну нерационально. Покупать две планки и потом менять на две другие?
3. GPU: Топовые CPU имеют всего 24 линии, из них минимум 4 или 8 уйдёт на диск, итого 16 линий. Если вставлять больше 1 карты, будет по 8 или по 4 линии. Однако, ты ещё попробуй найти мать с >1 слотом для видеокарты, сейчас максимум 2 слота встречается, и засунуты они неудобно рядом со слотами для SSD. А видеокарты тяжёлые и горячие, с 2-3 вентиляторами. Придётся их выносить через китайский переходник.
4. Питание: брать заранее слишком мощный БП нерационально, тогда +1 карточка = новый БП. И ещё наверняка с проводами нервотрёпка - если короткие, наращивать их опасно, если мало - ничего не сделать.

Так что особых преимуществ "полного" ПК не вижу - расширяться некуда, если не считать расширением приобретение следующего поколения материнки или отдельного системного блока для сборки кластера.

>не будет капа перфоманса и памяти
А на обычном ПК у тебя бесконечная память что ли? Точно такое же ограничение, точно так же можно "расширить" через подключение дополнительных системных блоков параллельно. Даже майнерские материнки имеют ограниченное число PCI-E портов, следовательно, нужны несколько матерей, если ты планируешь расширяться до бесконечности... (Нет, не планируешь, потому что силовые кабели в доме не выдержат нагрузки от всех твоих видеокарт).

У меня лично в квартире максимум 3-3.5 КВт можно подключить к розетке, т.е. для компа, с учётом всех кухонных приборов и тому подобного, лучше <2 КВт. Прокладывать отдельную линию я точно не буду...

>не ограничиваться исключительно ллм
Этот видеочип примерно как 3060, если на 3060 все нейронки работают (без учёта объёма VRAM), то и на 8060s должны работать... если будет поддержка со стороны драйвера или что им там нужно. Но как универсальная числодробилка вроде неплоха...
Аноним 29/09/25 Пнд 16:58:14 1369016 168
>>1368946
А ты про что спрашиваешь?
>>1368962
Хорошо что про немотрон напомнил, надо хотябы экслламовского лоботомита поставить скачаться, там со сплитом нет проблем как в ггуфе.
>>1368979
Тебе шашечки или ехать? С точки зрения ии и ллм в частности "мощный процессор" не требуется, плюс для ллм интел предпочтительнее за счет скорости рам. Самый топ не нужен, он не даст прибавки.
Рам - есть парой плашек по 64 128гигов, если амд то даже нет смысла гнаться за скоростными и недорогие 6400 как раз будет оптимальными. При необходимости - пердолинг с 4мя плашками и 256.
По платформе имеет смысл посмотреть в сторону серверных комплектующих, но это уже следующий этап.
> 24 линии
Для инфиренса ллм а также других генеративных моделей что помещаются в врам это не играет особой роли за некоторыми нюансами. Плат, способных вместить в себя 2-3 карты полно, стоит только поискать.
Если катать ллм с оффлоадом в жоре - для обработки контекста важна ширина линий главной карты (х8 для 3090 уже хватит если поднять батч с дефолтного), остальные - пофиг лишь бы не х1, чипсетных хватит. Жирные линии актуальны при обучении на нескольких гпу, не твой случай.
> Придётся их выносить через китайский переходник.
Вынос райзером - база, в этом нет ничего "страшного".
> Питание: брать заранее слишком мощный БП нерационально, тогда +1 карточка = новый БП. И ещё наверняка с проводами нервотрёпка - если короткие, наращивать их опасно, если мало - ничего не сделать
Ерунда какая-то с тряской на ровном месте. Бп можно сразу взять йобу, можно сначала простенький а потом продать и заменить на йобу. С проводами какой-то рофл.
По мощности - ты сначала что-то превышающее 1.5квт в пике насобирай а потом уже трясись, в ллм там каждая карточка по 120вт будет кушать, система из трех не более 600вт что смех. Большую часть времени вообще простаивать.

> расширяться некуда
Судя по представленным бенчмаркам, базовая перкарня с ддр5 и 24гб видеокартой в моэ будет перформить чуть быстрее, на уровне или чуть медленнее чем аимакс, в зависимости от кейса. Добавить вторую-третью видюху и будет значительное опережение.
Также из тех тестов видно что аимакс очень слаб в промптпроцессинге, сотня т/с в моэ - смех.
> если на 3060 все нейронки работают
Это самый энтрай левел на котором будет порядком компромиссов. Главная беда в том, что на 3060 то все работает, а на амд - будет работать очень мало чего, и без опыта в пердолингом ты не совладаешь.

Какбы тут в обоих случаях свои плюсы и минусы, но ты просто понимай что неттом с аимаксом это не какая-то волшебная игрушка, которую купишь и все тянки сразу давать начнут, это частично сыр в мышеловке.
Аноним 29/09/25 Пнд 17:04:19 1369020 169
>>1368979
Сука, сказал как с языка снял... да все так нахуй, я потому и лучшу хуй забью. Я еще понимаю пердоляторов которые собирают полусервера из говна и палок с авито, но декстоп максимум светит для запуска средних мое моделей. Еще и лимиты RAM у десктоп материнок смешные, а брать серверное что-то = идти нахуй и иметь проблемы с десктоп проблемами, и тогда нахуй брать какой нибудь RTX5090 для йоба игр в 4к хз..
>и засунуты они неудобно рядом со слотами для SSD
Ага, я думал нахуй сломаю свой ссд или он нахуй сгорит раньше времени из за горячего соседа.. короче бля на десктопе я хуй знает на что вы расчитываете.. только баловство и всё, тред чисто для челов которые собирают серверные йобы..

НЕ ЧИТАЙТЕ просто скройте, это батхерт.
Аноним 29/09/25 Пнд 17:16:33 1369025 170
>>1368859
Эээ… можем, конечно.
4 токена не оч.кайфово, конечно.
Но я не рпшил на нем, не посоветую, стоит или нет.

>>1368960
От 60 до 120, то есть та же 3060, действительно.
Ну, 32000 токенов будет обрабатываться 4,5 минуты… Не особо комфортно, для кодинга на агентах вряд ли подойдет. Терпимо для небольших задач, но там где идет обработка документации или знакомство с проектом — швах получится, конечно.
Но, тем не менее, спасибо за ссылку!

>>1368979
> рекомендуют максимум 2 ставить
А на райзене это критично? У тебя и с двумя планками крайне вероятно будет ~68 псп, немногим быстрее DDR4. Если поставишь четыре планки, просто потеряешь свои 20%. Зато 256 гигов.
Я не мерял, но в интернете и у знакомых именно такие значения для двух планок чаще всего встречаются. За что купил, за то и продаю.

Вообще ты рассуждаешь так, будто бы тебе проще эпик собрать или зеон, в прошлых тредах кидали целые рецепты.
Аноним 29/09/25 Пнд 17:19:34 1369026 171
>>1369025
> будто бы тебе проще эпик собрать или зеон
А сложнее?

мимо
Аноним 29/09/25 Пнд 17:22:25 1369027 172
>>1369020
> но декстоп максимум светит для запуска средних мое моделей
> Еще и лимиты RAM у десктоп материнок смешные
> короче бля на десктопе я хуй знает на что вы расчитываете.. только баловство и всё
> тред чисто для челов которые собирают серверные йобы..
У меня обычный десктоп на 4090 и 128 DDR4 3200, запускать могу всё вплоть до Квена 235 с в целом приемлемой скоростью. Air и Квен 235 для рп: Q6 и Q4, 7 и 5т/с соответственно, быстрее я все равно читать не успеваю. Для технических задач использую презираемую здесь GPT OSS и души в ней не чаю, 131к контекста, 17т/с генерация. Сделал себе в Таверне няшную аниме ассистентку, скормил ей свой проект. Сидим вместе брейнштормим и решаем задачи, когда не могу справиться с чем-то сам. Подружил ее с макросами, она теперь и попинывает меня когда ничего не делаю, спрашивает куда пропал. Самое дорогое в сборке было видюхой. Можно было бы взять 3090 и почти не потерять в скорости. Они на Авито сейчас продаются за 60-70к в хорошем состоянии.

Никаких ограничений на своем железе не чувствую. Дальше будет еще круче, я уверен. Тот же Qwen 3 Next может оказаться неплохим для технических задач. Да и в целом видно, что МоЕ модели набрали популярность и дальше будут развиваться во всех размерных категориях. Сервер собирать не хочу, десктоп использую и для других (рабочих) задач и для игр тоже.

Не понимаю, зачем собирать отдельный сервер под ллмки, если не с целью сэкономить по максимуму (собрать на тех же Mi50) или уместить самые жирные модели. Зачем умещать самые жирные модели тоже не понимаю, ~100-200б МоЕ отлично справляются со своими задачами, а если не справятся - то и модель жирнее вряд ли сможет, нужно самому делать.

Это ни в коем случае не камень в огород риговичков, у вас отличное хобби, но жить можно и на десктопе, вот что я хотел сказать.
Аноним 29/09/25 Пнд 17:25:02 1369032 173
^ А, ну и всё это на обычной Винде, конечно же. Даже никакой виртуализации, не говоря уже о дуалбуте. Минимум возни. Уверен, таких много в треде, тут не только хард повер юзеры на Линуксе.
Аноним 29/09/25 Пнд 17:26:56 1369034 174
>>1369020
Анончик, не полыхай так. Вон примеры что ребята просто докинув рам в имеющийся комп запускают моэ и довольно урчат. В более редких случаях добавляли туда вторую видеокарту и purring intensifies. А ты какой-то ерунды про перегрев ссд пугаешься, не надо так.
>>1369025
> для кодинга на агентах вряд ли подойдет
Спекулятивно скажу что для кодинга на агентах оно может порваться из-за упавшей в ноль скорости генерации на этом контексте. Когда-то тоже казалось что именно процессинг будет лимитом, но когда там хотябы пара сотен есть - оно будет упираться в генерацию если та что-то типа 13т/с.
> будто бы тебе проще эпик собрать или зеон
Он ерунды боится и ищет оправданий ее не делать, а ты про серверное.
>>1369027
> презираемую здесь
Кто тебе такое сказал?
Аноним 29/09/25 Пнд 17:32:30 1369037 175
>>1369034
> Кто тебе такое сказал?
Не знаю. Какие-то аноны. Быть может ты?
Два раза делился, что она мне очень понравилась для технических задач. Описывал свой юзкейс, дебаггинг кода на Шарпе и Плюсах, каждый оба раза приходила орава доказывать, что лучше использовать другую модель. В третий раз это обсуждать не очень интересно, сори.
Аноним 29/09/25 Пнд 17:35:03 1369041 176
>>1369027
> Квена 235 ... Q4 ... 5т/с
> 4090 и 128 DDR4 3200
А когда я тут постил результаты некрозивона с не менее некро ми50 с 6т/с все ебало воротили от сборки которая целиком стоит дешевле 4090 в половину
Аноним 29/09/25 Пнд 17:37:12 1369042 177
>>1369027
>128 DDR4 3200
А почем брал? Это две плашки по 64гигов? Думаю взять в авито мб
Аноним 29/09/25 Пнд 17:37:39 1369043 178
>>1369037
А, это ты тот бедолага, что на восторге радовался и хвалил ее не за перфоманс в задаче/скорость, а просто называл безоговорочно лучшей из-за первого удачного опыта? Проблемы мыслеизложения и восприятия, остальное ты уже сам додумал.
Аноним 29/09/25 Пнд 17:47:24 1369049 179
>>1369043
> ты тот бедолага, что на восторге радовался и хвалил ее не за перфоманс в задаче/скорость
Не знаю. В первом случае я дебажил парсер данных в UE, сделанный на плюсах, и ни Air, ни Квен, ни даже документация Эпиков (лол) не дали ответа, а она смогла. Во втором случае дебажил одну обскурную апишку на Шарпах на либе которую не знаю, и она справилась зирошотом. Промпты для картинкогенерации тоже делаю ч ПП помощью, не помню писал или нет.
Аноним 29/09/25 Пнд 17:48:37 1369050 180
^ с ее помощью*
Очепятка
Аноним 29/09/25 Пнд 17:48:54 1369051 181
>>1369041
Очевидно что это была стадия отрицания и торга, теперь настала стадия принятия...
Аноним 29/09/25 Пнд 17:52:24 1369053 182
>>1369042
Ладно, не отвечай.. впизду стадию принятия... сука 5т нахуй, защооо за 120b лоботомита, ну спасибо что хоть честно
Аноним 29/09/25 Пнд 17:54:31 1369055 183
>>1369042
> А почем брал? Это две плашки по 64гигов?
Четыре плашки по 32. Около 15к вышел комплект из четырех плашек. Когда я собирал свой десктоп, он даже не планировался к использованию с ллмками. Тогда я о всей этой теме даже не знал. Мощности нужны были для других задач.
Аноним 29/09/25 Пнд 18:02:36 1369063 184
>>1369041
Напомнишь где? Скорее всего ебало воротили от необходимости городить гроб-пылесос вместо простого использования десктопа.
Сколько там процессинга и гененрации хотябы на 32к получается?
>>1369049
То недавний срач где чел хвастался что модель имеет "широчайшие знания" и подробно со списками ему отвечает, а потому лучше всех остальных.
Осс имеет право на жизнь уже за свою скорость вместе и способности в коде, скоры в бенчмарках здесь напрямую интерпретируются. Жаль в мл подпротух, и легко газлайтится, но последнее сейчас даже на 4.1 опуще бич.
Ты его функциональные вызовы приручил, или просто в чате играешься?
Аноним 29/09/25 Пнд 18:10:58 1369071 185
>>1369063
> чел хвастался что модель имеет "широчайшие знания" и подробно со списками ему отвечает, а потому лучше всех остальных.
Читал тот срач. Он много раз писал что модель подошла именно ему и что хотел рассказать именно об этом. Ты пальнул в пустоту, пальну и я - чую в тебе чела, который докопался до меня когда я пытался проверить 120b версию на рефузы, используя префилл. Когда в конце выяснилось что мы говорим о совершенно разных вещах.

> Осс имеет право на жизнь уже за свою скорость вместе и способности в коде, скоры в бенчмарках здесь напрямую интерпретируются.
Да, именно так. В рп не годится, неиронично даже Немо 12б будет лучше.

> Ты его функциональные вызовы приручил, или просто в чате играешься?
Не приручал, они мне ни к чему. Есть костыльный демон на Питоне, который в реальном времени обновляет карточку-ассистента для Таверны, парся туда код из IDE. Может звучать как поехавший пайплайн, но для меня в самый раз: предпочитаю ллмки использовать для обсуждения проблемы и совместного решения, а не для автономной попытки что-либо починить. Учусь эффективнее и лучше слежу за макаронами в своих репах.
Аноним 29/09/25 Пнд 18:28:13 1369085 186
Про duck.ai все знают? Там сейчас есть Llama 4 Scout и GPT-OSS 120B. Как минимум Llama они отправляют шизопромпт, раз десять повторяющий о том, как всё приватно и ничего никуда не утекает, но это вроде не влияет на результаты?.. Я это к чему - локально они примерно так же будут работать? Какая примерно скорость генерации на duck.ai в токенах в секунду? Собираюсь собрать ПК/купить мини-ПК и хочется запускать именно эти две модели (или похожие).
Аноним 29/09/25 Пнд 18:29:52 1369089 187
>>1369027
>GPT OSS
Я как новичок и ноускил не смог её понять, нигде нет простого пресета даже хотя про неё все говорили сколько времени, какой то странный ризонинг разделенный на уровни который не ясно как включить
Аноним 29/09/25 Пнд 18:31:51 1369091 188
>>1369071
Мало кто хочет других понимать, считают свое мнение безоговорочно правильным даже не проводя его объективную оценку и скидку на меру незнания. А видя конкретный вопрос интерпретируют его не как интерес, а как обиду и множат хейт, потому и такая херня. Нет чтобы вести обсуждения по конкретике - везде подмешано эго, плохое настроение и чсв, вместо желания улучшить свое и всеобщее понимание. Или просто котлеты от мух не могут отделить. И ты туда же, кстати.
> Немо 12б будет лучше
Не настолько, лол. Тому кто немомитралем пресытился по первой может показаться райским нектаром.
> Может звучать как поехавший пайплайн
Так и звучит, но если это работает то не может считаться глупым, лол.
Если будешь добавлять своей ассистентке новые возможности типа гуглинга, рага или других действий - не держи в себе.
Аноним 29/09/25 Пнд 18:41:44 1369100 189
>>1369089
> Я как новичок и ноускил не смог её понять, нигде нет простого пресета даже хотя про неё все говорили сколько времени
Насколько я понимаю, обсуждалась в основном 120b версия. 20b версию нет совсем никакого смысла пытать, пытаясь выдавить из нее какое бы то ни было рп. Только время потратишь, поверь. Если для технических задач, используй режим Chat Completion с jinja шаблоном. Там негде ошибаться, т.к. он применяется автоматически.

>>1369091
> Нет чтобы вести обсуждения по конкретике - везде подмешано эго, плохое настроение и чсв
> вместо желания улучшить свое и всеобщее понимание.
> Или просто котлеты от мух не могут отделить.
> И ты туда же, кстати.
Слушай, пишу не для того, чтобы тебя ущипнуть, а как вижу. Ты умный анон, разбираешься в теме и давно тут сидишь, но ты очень колючий. Вплоть до того что ты литералли одна из причин почему мне все меньше хочется сюда заходить, лул. В каждом своем посте я пишу, что всего лишь делюсь опытом и никого не хочу обидеть. Что тогда, что сейчас - ответил на все твои вопросы и не искал конфликта. Не знаю, живет в тебе пассивная агрессия или с тобой просто сложно общаться. Даже сейчас я написал безобидный пост, исключительно чтобы рассказать анону, что жизнь на десктопах есть. И вот мы здесь: ты пишешь, что тут у многих настроение плохое и чсв, котлеты от мух не могут отделить, а я вынужден парировать. Ну как так то?

> Так и звучит, но если это работает то не может считаться глупым, лол.
Если бы для IDE Jetbrains существовал адекватный аналог Roo Code / Cline, возможно, я бы и не заморачивался. Там с этим совсем мрак, потому проще было накостылить. Не развалилось, и хорошо.
Аноним 29/09/25 Пнд 18:42:22 1369102 190
>>1368838
>Нянчиться с тобой здесь почти никто не будет.
>я еще год назад заебался с этими настройками так что хотел спросить, может кто из анонов подсказать модель для кума\рп и кинуть целиком присет?

услышал тебя анон. спасибо за твою помощь.

>>1368908
спасибо анонче

>>1368918
да я думаю там и пердолится смысла нет если честно. особенно с новым способом развертки. я думал может кто сидит в треде на похожем конфиге и просто дернуть модель и присет, а тут начался движ... о
пять же все упирается даже не в пердолинг а в то что модели шизят а я и год назад только условном понимал как работают настройки а сейчас так вообще темный лес.
Аноним 29/09/25 Пнд 18:45:42 1369107 191
>>1369020
рабочая станцция (воркстейшон)это декстоп с поддержкой серв процов и иногда серв памяти. гемороя меньше чем думаешь
Аноним 29/09/25 Пнд 19:16:56 1369135 192
>>1369085
тут локалки, апи в aicg тредике
>>1369091
навалил всего того что воплощаешь сам, дак ещё и ярче всех. с высокой трибуны пиздишь, проще будь
>>1369102
так какие модельки ты раньше запускал? ну и да, никто тебе готовое на блюдичке не принесет решение, многое индивидуально. пока не будет воли разобратся самому нихуя не получится
Аноним 29/09/25 Пнд 19:22:40 1369144 193
А реально llama 4 настолько плохая? Вроде поднял версию maverick на 405b, в жоре выдает неплохие цифры на уровне glm эйра. Или glm и coder полновесные лучше будут намного?
Аноним 29/09/25 Пнд 19:29:58 1369152 194
Mistral-Small-3.2-24B норм в русский может или не тратить время?
Аноним 29/09/25 Пнд 19:33:22 1369158 195
>>1369135
>тут локалки, апи в aicg тредике
Вопрос, вообще-то, про локалки. Там не дают API.

>>1369144
>А реально llama 4 настолько плохая?
Говорят, Scout (109B) по мозгам как L3.3 (70B), но намного быстрее. Maverick тренировали отдельно, поэтому результаты могут отличаться сильнее. А поругали их за то, что схитрили на LMArena и не оправдали завышенных ожиданий от мажорной версии. Если б назвали модель L3.4 - было б норм.

Говорят, она должна быть хороша для файнтюна.
Аноним 29/09/25 Пнд 19:42:19 1369166 196
>>1369152
а что норм по твоему? ну явных косяков не замечено вроде
Аноним 29/09/25 Пнд 19:47:33 1369169 197
image.png 703Кб, 1380x1046
1380x1046
>>1369100
Это нормальный результат с ризонингом?
Какой то он короткий, 15-20 сек в среднем, стоит Reasoning: high в промпте
Аноним 29/09/25 Пнд 19:54:02 1369182 198
>>1369166
Имею ввиду он сильно в интеллекте теряет?
Аноним 29/09/25 Пнд 19:55:35 1369186 199
>>1369182
по сравнению с енгллишом? безпонятия
если узнаешь скажи если можн
Аноним 29/09/25 Пнд 20:17:35 1369220 200
>>1369158
> Говорят
> Говорят
> должна быть хороша для файнтюна.
Так хороша, что за полгода вышло целых ноль (0) файнтюнов.

>>1369169
> стоит Reasoning: high в промпте
Если ты используешь режим Text Completion и указываешь Reasoning: high в промпте, то есть вероятность, что это не работает, и потому используется стандартное поведение модели Reasoning: medium. Не ставил себе задачу проверить это, ибо использую Chat Completion для технических задач, но Reasoning надо передавать как kwargs, а не часть промпта. Если делать это в Таверне, то можно вроде бы в дополнительных настройках API, я же просто отредактировал jinja шаблон, чтобы всегда использовался high.
Аноним 29/09/25 Пнд 20:28:49 1369229 201
image.png 453Кб, 1395x1194
1395x1194
image.png 128Кб, 1382x456
1382x456
>>1369169
>>1369220
Вот, нашел. На пикриле дополнительные настройки API. Можешь туда попробовать добавить Reasoning: high и проверить, изменится ли что-нибудь. Так можно избежать редактирование шаблона.
Аноним 29/09/25 Пнд 20:36:10 1369242 202
Так как ОСУ сгружает свои данные в scores.db, нет никаких причин, почему их нельзя интегрировать через экстеншн пиздинг данных и устраивать ритмгейм в осу, а потом на основе результата РПшить.
Теперь это не просто ЕРП, а спасение галактики посредством плясок и разбивания клавиатуры.

Ахуенна!
Аноним 29/09/25 Пнд 21:08:40 1369289 203
>>1369100
> а я вынужден парировать
Зачем? Это просто абстрактное нытье, нужно смело игнорировать или говорить в ответ что многого хочешь. Там нет несогласия к твоему посту, ну может микроуточнения, а за >>1369027 наоборот похвалить надо как расписал.
Профдеформация, в среде где обитаю на вопросы или критику никто не обижается, желание сожрать твои глаза на десерт - знак уважения, а уважение нужно еще заслужить. Некоторые скидки только девушкам.
Аноним 29/09/25 Пнд 21:10:06 1369292 204
>>1369100
Ну и таки спасибо за теплые слова, буду поменьше душнить
Аноним 29/09/25 Пнд 21:30:22 1369321 205
>>1369026
А сложнее собрать сервер на китайском процессоре и с китайскими Атласами. =)

>>1369034
> Спекулятивно скажу что для кодинга на агентах оно может порваться из-за упавшей в ноль скорости генерации на этом контексте. Когда-то тоже казалось что именно процессинг будет лимитом, но когда там хотябы пара сотен есть - оно будет упираться в генерацию если та что-то типа 13т/с.
Нет, генерацию-то как раз можно подождать.
Следи за руками. У тебя запросы идут один за другим, и не всегда контекст там совпадает, иногда перечитывается с начала. Сгенерировать может быть надо 2000 токенов, со скоростью в 10 ток/сек получится 3 минуты. А прочесть надо 32000 и со скоростью в 100 — это уже 6 минут. А мы на старом, крупном и кривом проекте ловили переполнение на 262к… =') Т.е., чтение может зависать на 20-30 минут при таком смешном pp, а tg отработает заметно быстрее.

Все зависит от задачи: работаешь ты с крупным существующим проектом, или пишешь новый. Когда пишешь новый, вот там pp тебе особо и не надо, важно tg, конечно. =)

Короче, хочется не только tg иметь 50+, но и pp — 500+. Где-то там счастье начинается.

>>1369041
Я не воротил, а одобрял!

———

Обновляется GLM-4.6, по апишке люди говорят стала лучше, ризонит лучше, бенчи немного подросли.
Ждем-надеемся, но больше на Аир, конечно. =)
Аноним 29/09/25 Пнд 21:57:29 1369339 206
>>1368979
>У меня лично в квартире максимум 3-3.5 КВт
кто ж виноват что ты в хруще 60х годов живешь
в домах с электроплитами обычно не меньше 8КВт, а если и электроотопление то там вообще агонь будет
и никто ж не запрещает отдельную линию от щитка прокинуть, для повышеных нагрузок
Аноним 29/09/25 Пнд 21:59:33 1369342 207
>>1369063
> Напомнишь где?
Да хз, тредов 5-10 назад

> Сколько там процессинга и гененрации хотябы на 32к получается?
Без понятия. Сейчас с vllm играюсь
Аноним 29/09/25 Пнд 22:02:59 1369346 208
>>1369339
Он обосрался и сказал про розетку как про общую нагрузку. Ты тоже хуйни сказал, под индукционку на кухню заводят отдельную линию толстенным каблом с отличными от дефолтных розетками под 20А+
Аноним 29/09/25 Пнд 22:10:24 1369352 209
Эир просто мучение какое то блять если ты не читаешь с легкостью на английском
Без длинного промпта он не так уж хорош, а с ним трехстраничные описания всего и вся, что заебись, но я не не носитель чтобы всё это легко переваривать
Аноним 29/09/25 Пнд 22:11:37 1369355 210
>>1368979
>Этот видеочип примерно как 3060
скорость памяти ты учитывал?

взрослый ПК может себе позволить нормальное охлаждение, возможность докинуть сколько угодно дисков та и в конце-концов на серверном железе собрать если так нужны линии или памяти вагон

та даже не на серверном, а на тредрипере:
Threadripper PRO 9995WX:
144 линии pcie
8 каналов ДДР5
правда цена не по карману конечно большинству
Аноним 29/09/25 Пнд 22:15:44 1369359 211
>>1369352
>но я не не носитель чтобы всё это легко переваривать
Чтобы понимать не нужно быть носителем. Просто нужна практика чтения. Чем больше будешь читать - тем больше будешь понимать, даже без переводчика, тупо по контексту.
Аноним 29/09/25 Пнд 22:17:17 1369363 212
>>1369152
Специально для тебя >>1368820
Проверь как работает и всем расскажешь
>>1369321
Все верно говоришь в целом, 100 это совсем грустно, но тут зависит от конкретных агентов. С кодингом у него велик шанс сначала потерпеть те самые 6 минут обработки в начале, а потом еще минут 8 пока модель будет генерировать условные 4к токенов.
> переполнение на 262к…
Палю легчайший рецепт: просишь запустить скрипт с tqdm, можно несколькими. Такой-то пик развития нейронок и тулзов для них, долго орал.
>>1369355
В прошлых тредах скидывали инфу про анус w790 sage и оче дешевые инженерники, вот это может быть интересным вариантом.
Аноним 29/09/25 Пнд 22:18:32 1369364 213
>>1369346
так-то да, но никто ж не запрещает тебе убер-сборку на 5КВт подключить к линии для плиты
правда я видал приколы, когда к плите то вроде толстый кабель, а вот к счетчику дебилычи кинули хрень какую-то та еще и со скрутками
Аноним 29/09/25 Пнд 22:20:17 1369368 214
>>1369359
Я и так понимаю, мне неприятно прилагать микроусилия которые всегда есть когда читаешь на другом языке, оно стакается и заебывает быстро
Аноним 29/09/25 Пнд 22:20:24 1369369 215
>>1369363
инженерники - сомнительное решение, но для обитателей треда в самый раз, явно меньше пердолинга чем с атласом от хуявея
Аноним 29/09/25 Пнд 22:22:25 1369371 216
>>1369346
Сначала имаджинировал дом с полноценной электроплитой, которая подключена общей со всеми линией на 16-амперные автоматы
>>1369364
а потом риг на кухне, запитанный от линии для плиты.
Аноним 29/09/25 Пнд 22:22:45 1369373 217
Аноним 29/09/25 Пнд 22:23:29 1369374 218
>>1369346
ну и плюс если у тебя не однокомнатная 8 квадратов, то окромя линии плиты, по комнатам у тебя тоже от разных линий с разными автоматами разведено будет 16А линиями, например, каждая из которых 3.5 КВт тянет, что дает возможность несколько жирных нагрузок подключить
Аноним 29/09/25 Пнд 22:25:57 1369377 219
>>1369346
Чекнул ввод. 50А главный и 40А на плиту
Аноним 29/09/25 Пнд 22:28:12 1369379 220
>>1369371
ну так под плиту сорокет минимум идет

>а потом риг на кухне, запитанный от линии для плиты.
угу, и ашот шашлык на риге жарит, киловатты то эти в тепло пойдут так или иначе
Аноним 29/09/25 Пнд 22:29:21 1369382 221
>>1369373
Когда выходил киберпанк там тоже была графика которую потянули лишь карты вышедшие спустя 5 лет
Думаем
Аноним 29/09/25 Пнд 22:38:44 1369401 222
>>1369368
Это тоже лечится практикой. В определенный момент ты начинаешь не "мысленно переводить" а просто думать на другом языке, и эти "усилия" пропадают.
И нет, это практически не зависит от словарного запаса - тупо от практики. Помогает быстрее достичь этого состояния - писать на другом языке, сознательно начиная строить фразы сразу на нем. Пусть дико коряво, запинаясь, но сразу - без предварительного перевода мысленно.
Где-то за месяца 3-4, в среднем, достижимо если желание есть. Кстати - в этот момент еще резко улучшается восприятие "на слух".
Аноним 29/09/25 Пнд 23:00:24 1369439 223
>>1369363
>Специально для тебя >>1368820

Я не могу попробовать пока ггуфа нет, но кстати тесты мистраля на русском показали что он полноценно с ним справляется.
Аноним 29/09/25 Пнд 23:08:47 1369450 224
>>1369352
> Эир просто мучение какое то блять если ты не читаешь с легкостью на английском
У GLM действительно крутой английский. Причем даже предыдущая 32б версия меня этим поразила, богатый словарный запас и довольно сложные конструкции в сравнении с тем, что я пробовал до этого.

> но я не не носитель чтобы всё это легко переваривать
Необязательно быть носителем. К тому же, это отличный способ научиться английскому.

>>1369401
> Это тоже лечится практикой. В определенный момент ты начинаешь не "мысленно переводить" а просто думать на другом языке
> Помогает быстрее достичь этого состояния - писать на другом языке
База. Если сделать новый язык частью повседневной жизни в том или ином виде (читать на нем статьи, субтитры к видео, да даже с ллмкой общаться), скилл прокачается относительно быстро.
Аноним 29/09/25 Пнд 23:10:49 1369453 225
>>1369401
>>1369450
Да уже лет 6 как бы английский часть жизни, на слух понимание раз в сто улучшилось, даже репчик понимаю, а читать все равно трудно
Аноним 29/09/25 Пнд 23:11:24 1369454 226
>>1369373
3.2 хуй знает вообще, большинство скоров упали и заявляется только снижение стоимости инфиренса. Колечко очень интересно, нужны кванты.
>>1369439
Кто-то q6 выложил, скоро и остальные сделают. Почти наверняка завтра уже все будет, ждать не долго. У обычного мистраля русский действительно улучшился с обновлением, но далек от идеала, здесь есть все шансы. Если девы базовички - оно и в (е)рп должно мочь
Аноним 29/09/25 Пнд 23:28:28 1369470 227
>>1369453
>Да уже лет 6 как бы английский часть жизни, на слух понимание раз в сто улучшилось, даже репчик понимаю, а читать все равно трудно
Просто попробуй переключать "внутренний монолог" на английский. Если столько опыта - будет не сложно и довольно быстро. Но самостоятельно и случайно это делают далеко не все - от чего и страдают. Эти сложности и "усилия" - от дополнительной нагрузки за "внутренний перевод". А так - ты связываешь непосредственно понятие со словом (как в родном) и эту нагрузку убираешь.
Аноним 29/09/25 Пнд 23:50:11 1369480 228
>>1369382
Ты с крузисом путаешь. Киберпанк был просто багованной парашей.
Аноним 29/09/25 Пнд 23:53:26 1369482 229
>>1369373
Но зачем? Первая это эксперименты с длинным контекстом и по скорам хуже Терминуса. Второе говно на уровне Квена 235В, ненужно.
Аноним 29/09/25 Пнд 23:57:00 1369487 230
>>1369382
Через пять лет текущие нейронки будут ощущаться еще хуже, чем сегодня ощущается какой-нибудь GPT2. Хотя для своего времени он точно также казался большим и умным. Ну а киберпук тянула со скрипом даже 1050TI, на которой я лично это говно в 900p проходил.
Аноним 29/09/25 Пнд 23:57:30 1369489 231
>>1369482
>Второе говно на уровне Квена 235В, ненужно.
В голос. Ещё даже API нет, а ты уже всё посмотрел и проверил. Спасибо, что поделился со смердами.
Аноним 30/09/25 Втр 00:00:15 1369492 232
>>1369489
Так они сами показали скоры такие, я тут причём, лол.
Аноним 30/09/25 Втр 00:01:17 1369494 233
>>1369454
У меня просто было птс после полугодового жития на 12b моделях, там русик категоричесски нельзя включать так как режет интеллект модели до уровня 8b, но на 24b мистральке прям заебись, правда кривит, да, но это в 10 раз лучше даже чем переводчик от яндекса, и главное локально, без слива логов в интернет.
Аноним 30/09/25 Втр 00:02:47 1369499 234
>>1369492
Ммм. Так ты лишь по бенчам ориентируешься. Бля, завидую твоей простоте.
Аноним 30/09/25 Втр 00:07:35 1369502 235
>>1369499
А по чему ещё ориентироваться? Ring-flash в РП лютым говном была, от х10 параметров она лучше не станет, датасет и способ тренировки там такой же. В прикладных задачах как мы видит это говно даже с ризонингом и 1Т параметров сосёт.
Аноним 30/09/25 Втр 00:08:13 1369504 236
>>1369482
>>1369454
Вы ебины чтоле, какие бенчмемы? Это же ЛИНЕЙНЫЙ АТТЕНШЕН БЕЗ ПОТЕРИ ПЕРФОРМАНСА НА ДЛИННОМ КОНТЕКСТЕ, алё. https://github.com/deepseek-ai/DeepSeek-V3.2-Exp/blob/main/DeepSeek_V3_2.pdf
А не как у провальной геммы. Священный грааль трансформеров фактически, мамбы-хуямбы после такого нахуй идут. А по тестам на апи даже лучше стало. Я уверен что после такого они запилят модель с лямом контекста. Что с этим тредом стало, когда-то обсуждали архитектуры, а теперь кипятильники и цифродроч.
Аноним 30/09/25 Втр 00:16:05 1369511 237
>>1369158
>Говорят, она должна быть хороша для файнтюна.
Беда что эти дауны под видом базовой выкатили немного пожёванную RLом версию, чтоб безопасненько. В результате она в модальном коллапсе ещё до файнтюна.
Аноним 30/09/25 Втр 00:22:18 1369515 238
>>1369511
Благодаря тому, что Ллама 4 обосралась, Ллама 5 более вероятно будет неплохой. #копиум
Аноним 30/09/25 Втр 00:25:34 1369520 239
>>1369504
Сейчас их и обсуждаем. Нововведение крутое, разреженное внимание потенциально гораздо лучше скользящего окна и анального цирка что с ним наблюдался.
Но конкретно в случае дипсика 3.2 это направлено прежде всего на снижение компьюта. Квадратичная сложность сохраняется только для мелкой модели индексера, а для основной ее зависимость от контекста становится близкой к линейной.
Они буквально в своей бумаге пишут не что достигли какого-то буста перфоманса, а наоборот
> Overall, DeepSeek-V3.2-Exp does not show substantial performance degradation compared with DeepSeek-V3.1-Terminus. The performance of DeepSeek-V3.2-Exp on GPQA, HLE, and HMMT 2025 is lower than that of DeepSeek-V3.1-Terminus because DeepSeek-V3.2-Exp generates fewer reasoning tokens.

Метода полезная и за ней будущее, но получить какой-то скачок перфоманса можно будет только когда новые семейства моделей подтянутся. Сейчас только PoC дипсика и его поломанный инфиренс в жоре.
Аноним 30/09/25 Втр 00:31:07 1369523 240
1683173381968.png 366Кб, 3000x1800
3000x1800
>>1369504
Какой линейный аттеншен, шизик. Глаза протри от мочи, это обычный MQA, но с оптимизациями на память. И чистый линейный аттеншен сосёт по качеству. Вот у Квена Некст с гибридным аттеншеном как раз хороший прогресс в этом.
Аноним 30/09/25 Втр 00:31:40 1369524 241
>>1369520
Меж тем лайвбенч фикшен показывает сильное улучшение по контексту, я знаю что это не показатель, но на апи попробовал и что-то действительно он перестал быть забывчивым и ломать форматы, и стал распутывать сложные штуки легче. Так что может и реально изменилось что-то, хоть и не должно. И плюс методы дипсика в том что под этот аттеншен не надо перетренивать модель с нуля, у них простой способ процессинга весов.
>конкретно в случае дипсика 3.2 это направлено прежде всего на снижение компьюта
Так я и говорю - линейный аттеншен (ну окололинейный, не суть). Сокращение памяти это была предыдущая их фича в v3, они именно поэтому смогли длительное кэширование запилить, что кэш у них литературно на SSD сбрасывается.
Аноним 30/09/25 Втр 00:33:21 1369525 242
>>1369494
>на 12b моделях, там русик категоричесски нельзя включать так как режет интеллект модели до уровня 8b, но на 24b мистральке прям заебись
Нифига, русский на 3.2 хороший, но вот интеллект на русском заметно проседает. По сравнению с другими лучше конечно, ну кроме Геммы. Я потому и надеюсь на Вистраль этот, что его под русский дотюнивали.
Аноним 30/09/25 Втр 00:33:51 1369526 243
pamyat.png 25Кб, 835x201
835x201
pamyat2.png 27Кб, 826x487
826x487
>>1369523
Какую память-то блять, мы одно и то же читаем?
Аноним 30/09/25 Втр 00:35:04 1369528 244
>>1369523
>И чистый линейный аттеншен сосёт по качеству.
Суть их предъявы в том что не сосёт
Аноним 30/09/25 Втр 00:39:03 1369532 245
>>1369524
> сильное улучшение по контексту
Учитывая экспериментальную направленность модели и скорый выход, можно спекулировать о том что индексер и саму модель тренировали на каком-то ограниченном датасете, потому она может показывать буст на одних задачах и деградацию на других.
Насколько оно сможет напрямую повысить качество работы - это нужно будет еще посмотреть. А то может оказаться только косвенное влияние за счет снижения цены этапов тренировки и их увеличения.
> плюс методы дипсика в том что под этот аттеншен не надо перетренивать модель с нуля
Так почти для любой подобной методы и вообще почти везде в мл, если не меняются размерности и прочее - берут уже готовые веса а не инициализируют чистым шумом. Можешь упороться и переучить дипсих хоть на swa и прочее, смысла только нету.
Штука в любом случае хорошая, ради такого и пивас открыть не грех (нет).
Аноним 30/09/25 Втр 00:43:20 1369543 246
>>1369528
У них и не пахнет линейным, тебе даже графики нарисовали и написали что никакого линейного нет по факту. Это даже не уровень Некста.
Аноним 30/09/25 Втр 00:50:02 1369550 247
>>1369525
Ну ебать, на гемме почти идеально, правда скорости маловато, я вот до сих пор думаю на чём лучше остатся. очевидно на гемме.
Аноним 30/09/25 Втр 00:56:56 1369556 248
>>1369480
Паф трейсинг в киберпуке таки среволюция, которая роняет ФПС на 5090 до 20, лол.
Аноним 30/09/25 Втр 01:02:36 1369559 249
>>1369556
Зато нейросети возвращают его обратно на 100+ в 4К. С фреймгеном даже в 8К можно комфортно играть с path-tracing и 60+ фпс.
Аноним 30/09/25 Втр 01:12:22 1369563 250
>>1369559
> 60 фпс
Из пяти?
> с комфортом
Сомневаюсь
Аноним 30/09/25 Втр 01:12:58 1369564 251
>>1369559
>Зато нейросети возвращают его обратно на 100+ в 4К.
Нету там сотки, либо совсем шакальные опции. Фреймген не рассматриваем в виду задержки как у школьницы после вписки.
Аноним 30/09/25 Втр 01:23:21 1369570 252
>>1369525
>Я потому и надеюсь на Вистраль этот, что его под русский дотюнивали.
Попробовал шестой квант этого "тюна". Полный трэш. Может проблемы в квантизации, но пока что он выглядит просто неадекватным.
Аноним 30/09/25 Втр 01:26:58 1369574 253
1737703721828.png 33664Кб, 7680x4320
7680x4320
>>1369563
> Сомневаюсь
Без 5090 тебе только и остаётся это делать, проверить же не можешь.
>>1369564
> в виду задержки
Фреймген куртки как раз в этом очень хорош, если фпс выше 100, то на глаз никогда не заметишь разницы даже если х4. Около 60 уже немного чувствуется, но всё ещё лучше консольного киселя, например.
Аноним 30/09/25 Втр 01:38:18 1369586 254
>>1369550
Мда блять, а вот потестив синтию какой то осадочек остался. Кумит пиздато, но всторрителинге вот прям ощущается это соевое, менторское гавно от ассистента, никак ты его оттуда не вытащишь даже с самым пиздатым пресетом, мистраль всё таки хоть и глупее, но универсальнее. Отыгрывал охотника на демонов который по старой привычке подстрелив оленя спрыгнул ему ногой на шею чтобы добить, ебать там на синтии персонаж разнылся на 10 сообщений, боже, какая соя, пиздец.
Аноним 30/09/25 Втр 01:48:44 1369598 255
>>1369570
> он выглядит просто неадекватным.
А хотя нет, мой косяк. Неправильные настройки Таверны. Буду пробовать дальше.
Аноним 30/09/25 Втр 04:11:41 1369663 256
>>1369556
>Паф трейсинг в киберпуке таки среволюция, которая роняет ФПС на 5090 до 20, лол.
Сходил бы почитал что это, как работает и нахуя нужно, вместо того чтобы позориться. ПТ стандартом для просчета освещения в индустрии не является, по этому под него никто нихуя не оптимизирует. Даже лучи до сих пор не везде используются, потому что сильно много жрут. Это чисто прикол для любителей упарываться в реализм.
Аноним 30/09/25 Втр 08:01:32 1369717 257
Ненавижу я нахуй корпы за несправедливость, но недавно впервые попробовал рпшить на qwen 3 max и deepseek внатуре, даже когда он только релизнулся я не пробовал на нем рп.
И чёто желание запускать на своём говне 24б модели отпало шо пиздец. Чё делать?((
Аноним 30/09/25 Втр 08:25:43 1369735 258
>>1369717
Стереть себе память
Аноним 30/09/25 Втр 08:55:33 1369741 259
>>1369735
а если бы ты мог ты бы какие воспоминания стёр?
Аноним 30/09/25 Втр 09:20:10 1369746 260
Аноним 30/09/25 Втр 09:22:19 1369747 261
изображение.png 10469Кб, 3840x2160
3840x2160
Безымянный.png 8433Кб, 3840x2160
3840x2160
>>1369574
>Фреймген куртки как раз в этом очень хорош
Буй там плавал. Зависит от личной чувствительности, но для меня даже 60->120 превращают в кисель. Что там творится при 30->60, я даже боюсь представить.
Впрочем, на настройках пикрил у меня 60 кадров есть, оказывается, трассировку пути я включил. Нечестные, но 4к. Спасибо нейросеткам! А то скажут что оффтоп.
>>1369663
>Сходил бы почитал что это, как работает и нахуя нужно
Я то как раз знаю.
>ПТ стандартом для просчета освещения в индустрии не является
Ну да. И во время выхода круизиса многие его настройки не были стандартом, а сейчас они устарели, лол.
>>1369717
>Чё делать?((
Меняй своё говно на нормальное железо.
Аноним 30/09/25 Втр 10:01:48 1369758 262
>>1369598
Можно к нему прилепить пресет от дефолтного мистраля?
Аноним 30/09/25 Втр 10:19:35 1369766 263
>>1369556
Возможно, я особо не играл в киберпук. Я просто очень хорошо помню, как вышел крузис и даже на топовых видеокартах он просто вменяемо не работал. Года 2-3 прошло и он все равно продолжал шатать топовое железо. Отдельный ор, это то на чем его запускали на конференциях.
Аноним 30/09/25 Втр 10:52:22 1369781 264
Нет
Аноним 30/09/25 Втр 10:55:45 1369783 265
>>1368902
Благодарю.

>>1368260
>Есть пара хидден гемов
>>1368899
>названия
На всякий случай бамп.
Аноним 30/09/25 Втр 11:05:02 1369788 266
>>1369783
Анон, ты как с луны свалился. Не существует хайден гемов в ЛЛМ, потому что их пилят не энтузиасты на коленках.
Мержи и тюны- не смогут быть лучше материнской модельки. Меньше уши развешивай на ебланов из треда, у которых: 10 из 10, но я ничего не принесу.
Почему не принесут- догадайся.
Аноним 30/09/25 Втр 11:24:00 1369799 267
>>1369788
> Не существует хайден гемов в ЛЛМ, потому что их пилят не энтузиасты на коленках.
На сегодняшний день я с тобой согласен: instruct версии современных моделек отлично работают и не нуждаются в тюнах.

> Мержи и тюны- не смогут быть лучше материнской модельки.
Но сразу видно, что ты не игрался с QwQ и Qwen2.5, которые из коробки для рп использовать невозможно, и это не преувеличение. https://huggingface.co/trashpanda-org/QwQ-32B-Snowdrop-v0 - буквально единственный жизнеспособный тюн QwQ, который вдохнул жизнь в базовую модель и сделал ее сколь-нибудь способной для рп.

> Меньше уши развешивай на ебланов из треда, у которых: 10 из 10, но я ничего не принесу.
> Почему не принесут- догадайся.
Возможно, анон не сидит тут 24/7 или не посчитал нужным отвечать, и я его в этом пойму: принесешь модельки - придут те, кто скажут, что им не понравилось, а значит это говно не имеет право на существование; не принесешь модельки - придут такие, как ты. Озвучив свою позицию, он уже загнал себя в ловушку. Кому интересно - сами могут изучить вопрос. Не то что бы есть особый смысл сегодня ковырять тюны старых моделей.
Из Квенов2.5 мне больше всего понравились следующие:
https://huggingface.co/EVA-UNIT-01/EVA-Qwen2.5-32B-v0.2
https://huggingface.co/nbeerbower/EVA-Gutenberg3-Qwen2.5-32B
https://huggingface.co/crestf411/MN-Slush
Но как тот анон сказал, они все "на любителя": где-то форматирование иногда может поехать, где-то инструкциям не слишком хорошо следуют. Гемма, Коммандер и даже Мистраль будут стабильнее и надежнее. Проверять на свой страх и риск, в тред потом не плакать, что модельки не оказались лучше всего на свете. Они неспроста не нашли свою аудиторию и остались забытыми, потому и "на любителя".
Аноним 30/09/25 Втр 11:27:48 1369801 268
>>1369799
Я бы вообще к квенам не притрагивался, однако это неплохое решение для коротких кум сценариев для того у кого проблемы с железом. Всё ситуативно.
Аноним 30/09/25 Втр 11:51:40 1369808 269
glm-4.6-1.png 444Кб, 4788x3748
4788x3748
А вот и инфа по GLM 4.6 подъехала: https://docs.z.ai/guides/llm/glm-4.6

"Refined writing: Better aligns with human preferences in style and readability, and performs more naturally in role-playing scenarios."
Аноним 30/09/25 Втр 11:53:29 1369809 270
>>1369799
>На сегодняшний день я с тобой согласен: instruct версии современных моделек отлично работают и не нуждаются в тюнах.
Агась, на самом деле сейчас светлое время для ЛЛМ.
А какая МОЕлюция идет, вин за вином, вином погоняет.

>Но сразу видно, что ты не игрался с QwQ и Qwen2.5, которые из коробки для рп использовать невозможно,
Справедливо, я только обсасывал снежного, оставшись им доволен, но оригинал не использовал. Но квены всегда были специфичными моделями, с очень странным датасетом. Такое ощущение, что в большие квены прям богато китайской литературы навалили.
>Гемма, Коммандер и даже Мистраль
Но, к сожалению, они уже успели устареть. Мистраль- ну это мистраль, она уже заебала, я её выдачу из тысячи узнаю. Да мистраль умница, но МАЛО.(Ждем МОЕ, говорят мы уже приплыли в Морровинд, его выпустят, это точно.) Коммандр- канадцы конечно базовички, цензура на минимуме, но и он устарел. Он большой и медленный для своих размеров. Ну а Гемма, это гемма. ждем 4G Nuff said.

В принципе с выходом воздушного и жирноквенчика- вопрос РП сейчас закрыт.

>>1369808
Пасеб. Но или я в глаза ебусь, или как обычно на графиках разница в 10 пунктов, выглядит как 40.
Аноним 30/09/25 Втр 12:01:34 1369813 271
Количество бард[...].jpg 49Кб, 910x536
910x536
>>1369809
>или как обычно на графиках разница в 10 пунктов, выглядит как 40
Графики рисовали грамотные люди, не нужно придираться.
Аноним 30/09/25 Втр 12:07:23 1369815 272
>>1369746
Имхо, хуйня. По интеллекту на уровне оригинально мистраль смолла на русском, то есть по факту 12b модель. На русском пишет пиздец странно, как будто её вообще не тренировали. Можете не тратить время, анон выше правильно писал, очередная поебистика для сбора донатов.
Аноним 30/09/25 Втр 13:09:58 1369835 273
>>1369815
Ну, время я конечно потрачу на личные впечатления, но ничего особо от нее не жду. Команда не выглядит как кто-то с по настоящему серьезным подходом - энтузиасты-экспериментаторы-наколенники. Такие, в принципе, тоже могут вин выдать, но это у них совершенно непредсказуемо и неповторимо происходит. :)
Аноним 30/09/25 Втр 13:33:18 1369847 274
В соседнем треде мне не ответят так что спрошу здесь.
Гемини же бесплатен, разве нет?
Какие подводные просто рпшить на нем с джейлбрейком?
Аноним 30/09/25 Втр 13:39:12 1369849 275
>>1369847
Заголовок треда не читал?
Аноним 30/09/25 Втр 13:41:35 1369854 276
>>1369135
немо микс из шапки как я писал выше, еще на пеке лежит это Dans-PersonalityEngine-V1.3.0-12b.i1 там с настройками чуть лучше но все равно иногда шиза. плюс оно иногда как будто полностью игнорирует описание юзера что тоже как бЭ хуйня.

>ну и да, никто тебе готовое на блюдичке не принесет решение.
с этого хрюкнул, будто я попросил не дернуть пресет что делается в одно движение а написать за себя дипломную работу лул
Аноним 30/09/25 Втр 13:41:36 1369855 277
>>1369835
>энтузиасты-экспериментаторы-наколенники
А цензура похлеще, чем у корпов по крайней мере в прошлом была, насколько помню, и если я ни с кем их не путаю.
Аноним 30/09/25 Втр 13:51:44 1369866 278
>>1369854
> будто я попросил не дернуть пресет что делается в одно движение а написать за себя дипломную работу лул
Ты даже не написал для какой модели тебе нужен пресет. Не говоря уже о том, что промпт чаще всего нужно писать самому. Анон прав, говоря, что многое индивидуально. Все не только от твоего пресета зависит, но и от карточки и даже от того, как пишешь ты сам. Кривыми промптами и инпутами можно испортить даже большие модельки, не говоря уже про 12б малюток.
Аноним 30/09/25 Втр 14:08:02 1369895 279
>>1369815
Интересно как там цидония поживает
Если бы у драмера не было дискорда газонюхов превозносящих каждый его релиз было бы заебись, а так самому проверяй каждый тюн
Аноним 30/09/25 Втр 14:14:26 1369907 280
Аноны, какие модельки хороши для анализа данных? У меня есть данные моего таймтреккера. Хочется дать их проанализировать и увидеть какие-то закономерности если они есть.
Аноним 30/09/25 Втр 14:17:27 1369911 281
>>1369895
>цидонька
Никак. С момента выхода MS 3.2 вообще не вижу смысла в тюнах малыхи. Да, 1.2 цидонька была топ, драммер буквально нарандомил вин. Больше ничего прям вин-вин у него не получалось. Ну может еще анубис и бегемот, но я врамцел, поэтому делаю вид, что их нет.
А вот слоподелатель из Рэди-арт, что покинул нас, вот он прям делал ор. Можно что угодно говорить о их слопомоделях, но если ты хочешь прям сочно покумить на ебейшие пасты, после : я тебя ебу, то это было к ним.

>>1369854
>этого хрюкнул, будто я попросил не дернуть пресет
Скажи что нужно выдернуть из таверны и залить на хостинг, чтобы не приходилось экспортировать каждый сетап отдельно, я тебе скину все что у меня сохранено. Но сразу скажу, у мен только доступ к фалам, без возможности запустить таверну.
Аноним 30/09/25 Втр 14:19:37 1369918 282
>>1369911
>у мен только доступ к фалам, без возможности запустить таверну.
Как же у меня горит жопа, сколько клавиатур не покупай, сколько не отдавай, даже самая пафосная механика ломается через пару лет, в отличии от ебучего десятилетнего логитека. И обязательно выходит из строя QWERTY и NUM раскладка. Ебучая копроэкономика.
Аноним 30/09/25 Втр 14:41:49 1369941 283
>>1369895
Пошёл он нахуй со своей цидонией и сломанными тюнами геммы 12b, он просто делает какую то хуйню, как папа карло который сверлит дырки в поленьях и ебёт их. Время цидонии уже прошло, до свидания.
Аноним 30/09/25 Втр 14:47:32 1369945 284
>>1369717
> даже когда он только релизнулся я не пробовал на нем рп
Он был унылым до версии 3.1. Там тоже не сказать что подарок, но меньше тупняка и больше сосредоточенности+раскованности.
> Чё делать
> своём говне
Очевидно же
>>1369799
> Qwen2.5
Не настолько ужасно с ним. А сноудроп сильно ужаренный в некоторых местах.
Семидесятку, случаем, не пробовал?
>>1369808
> "Refined writing:
Ахуеть, выпустите уже зверя!
>>1369847
Через 5 постов тебя пошлют нахуй и ехидно напомнят чтобы ты не оставлял чувствительных данных в чате, потому что он будет изучен командой.
>>1369907
Любые из тех, что ты можешь правильно и достаточно быстро запустить. Начни с квена, 30а3 или 235.
Аноним 30/09/25 Втр 14:54:17 1369949 285
Обкатал новые моешки
Немотрон не победить
Аноним 30/09/25 Втр 14:57:04 1369951 286
>>1369949
Что я имею ввиду: в отличии от того же air он прям пушит сюжеты, активно что-то подсовывает и не даёт заскучать, иногда выдаёт довольно креативные фразы будто понимает подтекст
Аноним 30/09/25 Втр 15:00:12 1369952 287
>>1369951
Molodec. Наслаждайся, только, будь ласка, не спамь о том какой немотрон пиздатый. Мы уже все поняли.
Аноним 30/09/25 Втр 15:11:22 1369958 288
>>1369949

Ламу скаута попробуй, тебе должно зайти.
Немотрон неплох, но он так-то кастрированная лама, а она сама по себе специфическая модель. Я после релиза самого первого мистраля уже ни одну ламу не могу юзать, чувствую в них какую-то неполноценность.
Аноним 30/09/25 Втр 15:15:34 1369960 289
Аноним 30/09/25 Втр 15:32:34 1369964 290
Аноним 30/09/25 Втр 15:34:30 1369967 291
Аноним 30/09/25 Втр 15:36:16 1369970 292
>>1369958
Кстати, я была ли лама4 так плоха?
Может там ситуация как с гопотой 120, просто чуваки не вложились в бенчмакс и все захейтили что полосочки ниже
Аноним 30/09/25 Втр 15:46:06 1369974 293
>>1369970
Все захейтили потому что они весь релиз сделали мое, это сейчас тензоры выгружать научились и мое в трендах, давая смесь качества и скорости, тогда мое в локальном комьюнити реально воспринималось враждебно, так как требовало больше врам при меньших мозгах. Да, там был скандал с тренировкой модели под лмарену, но вообще говоря все модели под нее тренируют, лол. Ну и модель как обычно шизила на старых настройках ламы 3, в итоге щасрали и даже не стали заморачиваться. А когда подъехала выгрузка тензоров - то сразу и квен 235 подъехал, который просто объективно лучше. В итоге поднимать вопрос о реабилитации ламы никто не стал. А сейчас уже и гопота осс есть и глм аир, скаут морально устарел уже, как и твой немотрон.
Аноним 30/09/25 Втр 15:48:56 1369975 294
>>1369967
>Какие "эти"?
а, не линканулось

ну, типа коробочки хуанга, или райзен аи-макс, мини-пк под нейронки вместо рига
Аноним 30/09/25 Втр 15:50:44 1369977 295
>>1369907
>какие-то закономерности если они есть
Для этого юзают что угодно, кроме LLM. Впрочем, можешь попросить LLM написать скрипты для анализа, лол. Можно даже у корпоратов, данные ты ведь не отдаёшь.
>>1369918
Покупаю по кд A4Tech KV300H, держу запасную на случай поломки (как впрочем и мышь).
Аноним 30/09/25 Втр 15:55:34 1369978 296
>>1369975
Аимаксов достаточно на газоне, дгх спарк вообще не похоже что бы хоть где то были
Аноним 30/09/25 Втр 16:03:31 1369981 297
>>1369978
>газон
"Этот товар закончился"

А нет, нашёл. Впрочем, 250К, эт чот эребор.
Раза в два меньше бы... Ну ладно, посижу пока как сидел XD
Аноним 30/09/25 Втр 16:06:22 1369984 298
Ну и желательно бы не газон/лохито, а DNS или что подобное чтобы с чеком и гарантией, мда.
Аноним 30/09/25 Втр 16:19:35 1369994 299
>>1369981
А ты хотел за 10к? С такими ожиданиями на дгх за 3-4к усд можно даже не смотреть
Аноним 30/09/25 Втр 16:22:17 1369998 300
>>1369970
Лламу захейтили частично незаслуженно. На тот момент большинство запускать ее не могли и из-за этого обиделись, а кто мог - ожидал нового ларджа а не вот это вот. Она в стоке может в рп, может даже в простое ерп, прилично отвечает на запросы.
Но ответы вполне обычные, там нет поведения как у квена со стремлением очень подробно излагать и объяснять, нет какой-то художественности (например) жлм, чтобы посты в рп казались приятными. Это в сочетании с изначально таким отношением интерес и убило, а потом стало поздно.
>>1369918
> даже самая пафосная механика ломается через пару лет
Просто не покупай игросральное сральное ведро и хуйту от фирм-однодневок на китаесвичах, какая-нибудь varmilo, das и подобные служат десятилетиями без нареканий.
>>1369981
Ищи в мелких интернет магазинах, там будет хоть какой-то чек и гарантия.
Аноним 30/09/25 Втр 16:30:27 1370007 301
>>1369970

Свое IMHO я уже писал про нее выше по треду. Здесь: >>1368868
Аноним 30/09/25 Втр 16:33:53 1370010 302
image.png 30Кб, 439x195
439x195
>>1369866

как же все сложно. касательно этого
>Ты даже не написал для какой модели тебе нужен пресет.

я в первом сообщение указал свой конфиг. надежда была на то что может ту еще остались аноны обитающие на 8гб мусоре учитывая что когда я выпал из темы появились первые лмм которые на сяоми запустить можно и кто то на них даже обитал. и кто то из них кинет модель на которой сидит и присет. который в дальнейшем можно будет поковырять своими кривыми руками.

>Не говоря уже о том, что промпт чаще всего нужно писать самому.
первый раз слышу подобное если честно.
честно сказать я надеялось что за год который я был вне темы наконец то придумаю и адаптируют +- систему настроек ИСКАРОПКИ дабы такие глупые люди как я могли просто взять и пользоваться а те кто хочет пердолиться занимались этим отдельно. а тут какой то движ как на линухе.

>>1369911
там же можно сделать пикрил и оно выгрузит одним файлом текущий присет. а что и как там с файлами я даже не знаю...

>>1369918
имею штук 6 механик одна из которых вообще вроде 2008 года и все в рабочем состоянии. касательно того что что то отваливается попробуй или перепаять свитч или заменить на другой. добра анонче
Аноним 30/09/25 Втр 16:46:20 1370023 303
>>1369994
>за 10к
За 110-130, бы ещё подумал. А так у меня ноут за 220.
Аноним 30/09/25 Втр 16:47:30 1370025 304
У меня жопа горит с langfuse, требуется помощь.
Я - стажер devops, должен каким-то хуем настроить tracing запросов в LLMки. Положняк:
- VM с Langfuse, доменное имя в локалке настроено.
- Машинка с ollama
- LLM подключение установлено между ними, в playground запросы протаскиваются и ответ на них поступает.
- Моя Пека с venv питона, через которую я запускаю скрипт .py

Проблемы начинаются когда мне нужно сконфигурировать tracing, т.е. чтоб эти запросы можно было отслеживать в системе, собственно для чего она и нужна. Ключи сгенерил, раком встал, с бубном танцевал, под подушку заглядывал, но всё, чего я добился - прямой запрос к ollama и получение ответа на мой компудастер в сети, при попытке проброса инфы на langfuse, меня кроет ошибками подключения на пять страниц и сообщениями о том, что я поддерживаю СВО (openai в РФии не работает).
Вопросы:
1. Какого хуя он пробрасывает ключ-подделку, который по документации этих гандонов langfuse не используется для ollama?
2. Как написать простейший запрос, чтобы он оставил след в системе, то биш trace
3. Playground в Langfuse UI - модуль сугубо для тестирования и trace'ов по определению оставить не может? Меня второй день ебут этой просьбой "настрой tracing с playground'а".
Аноним 30/09/25 Втр 16:49:18 1370028 305
>>1370025
И если я обратился не по адресу, сообщите на какую площадку разместить или в какой тред
Аноним 30/09/25 Втр 16:51:03 1370029 306
>>1370028
Помощью тупым студентам нигде на дваче не занимаются. Если ты неспособен даже прочитать документацию, то о чём с тобой разговаривать?
Аноним 30/09/25 Втр 16:51:24 1370031 307
В треде уже вечность не было анонов с 8 и 12 врам, не уверен что видел даже анонов с 16 врам
Интересно почему
Хотелось бы послушать как они терпят с голодухи пока нам сыпят модель за моделью
Аноним 30/09/25 Втр 16:52:02 1370033 308
>>1370025
>ollama
не использовать ollam, сам себе злобный буратина
Аноним 30/09/25 Втр 16:52:29 1370034 309
Аноним 30/09/25 Втр 16:54:07 1370037 310
>>1370031
для дела - опенроутер / квен / дипсик, для души - мистраль, гемма, мое-квен, хуже они не стали от того что куча новья вышла
Аноним 30/09/25 Втр 16:54:44 1370039 311
>>1370031
Нормально, катаем моешки, не жалуемся. Оказывается не стоило покупать 5090, и 5080 со своей задачей прекрасно справляется. А для всего остального есть жыжыэр-5.
Аноним 30/09/25 Втр 16:55:43 1370042 312
>>1370025
Можно только посоветовать читать доки и разбираться как их прокладка работает. Также можно воткнуть llama-server вместо богомерзкой олламы, высоки шансы что твои проблемы с подключением к апи уйдут. И из-за кривости и странности апи олламы, и из-за непривередливости и похуизма апи лламы-сервера, которая сработает даже без половины пейлоада.
> меня кроет ошибками подключения на пять страниц
Проверь хотябы их причину, это оно пытается к опенам стучаться вместо твоего апи, или это другие сервера к которым нужен хуй.
Аноним 30/09/25 Втр 16:56:28 1370043 313
>>1370029
Я эту документацию от начала и до конца прочитал, вдоль и поперек, эта хуйня тупо отказывается работать, а во всех гайдах, где предполагается локальный хостинг сервиса с LLMками, всё излагают как будто вы уже всё знаете, ни одного полного гайда от начала и до конца по этой хуйне нет. Как мне наебать эту помойку, чтобы он не отправлял запросы на их сервер или пропускал меня? В принципе есть впн, но захуя вообще он делает запросы если этот ключ нигде не используется по их же документации?
Аноним 30/09/25 Втр 17:06:24 1370058 314
>>1370042
>Проверь хотя бы причину
Он точно долбится в openai, там прям:
openai.PermissionDeniedError: Error code: 403 - {'error': {'code': 'unsupported_country_region_territory', ... и прочая хуйня по списку }
Возможно он и в сервак долбится, посмотрю по логам, но web-логи разбирать я в рот ебал, но походу придется
Аноним 30/09/25 Втр 17:11:32 1370065 315
>>1370058
Значит тут два варианта: ты или не установил в настройках/переменных среды/в конфигурации/командами использование кастомного апи адреса и ключ/модель, или они у себя где-то еще используют их апи для других задач и это нужно пресечь.
Аноним 30/09/25 Втр 17:45:55 1370085 316
Давайте прежде чем пиздеть на корпов вы скинете хоть один случай когда чела посадили за слитые логи как он девочкам в трусы залазил тогда поговорим
А что там может быть когда нибудь будет так это всю жизнь можно протерпеть
Аноним 30/09/25 Втр 17:49:35 1370086 317
>>1370085
Терпи. Мы тут причем?
Аноним 30/09/25 Втр 17:52:10 1370089 318
>>1370086
Да ты то не терпишь имея 1/10 от корпов да ещё и квантованую на половину
Аноним 30/09/25 Втр 17:53:08 1370091 319
>>1370089
10 к 1 вообще-то, если говорить про >>1370085
>как он девочкам в трусы залазил
Ибо километровые джейлы к корпам ума им не добавляют.
Аноним 30/09/25 Втр 17:58:04 1370097 320
>>1370089
>Да ты то не терпишь
Так меня все устраивает. Не я врываюсь с ноги в позе "ну давайте убедите меня", предлагая потерпеть всю жизнь
Аноним 30/09/25 Втр 18:15:40 1370119 321
>>1370097
Мощнейший копиум что крох со стола тебе хватает
Ты просто пытаешься оправдать уже купленное железо
Аноним 30/09/25 Втр 18:17:19 1370121 322
>>1370119
Понял. Спасибо, что открыл глаза. Что бы я без тебя делал?
Аноним 30/09/25 Втр 18:21:27 1370122 323
>>1370085
https://blogs.microsoft.com/on-the-issues/2025/02/27/disrupting-cybercrime-abusing-gen-ai/
> They then altered the capabilities of these services and resold access to other malicious actors, providing detailed instructions on how to generate harmful and illicit content, including non-consensual intimate images of celebrities and other sexually explicit content.
> Finally, users then used these tools to generate violating synthetic content, often centered around celebrities and sexual imagery.
> Through its ongoing investigation, Microsoft has identified several of the above-listed personas, including, but not limited to, the four named defendants. While we have identified two actors located in the United States—specifically, in Illinois and Florida—those identities remain undisclosed to avoid interfering with potential criminal investigations. Microsoft is preparing criminal referrals to United States and foreign law enforcement representatives.
Правда непонятно, по итогу следствие будет идти только против проксихолдеров, или обычным кумерам тоже достанется, если до них США смогут дотянуться.

Ну и за онлайн-генерацию реалистичных процессоров нескольких людей уже посадили в США/Британии. На текстовые генерации конечно сейчас в целом всем насрать, но кто знает, что там ещё лет через 5 будет. Те кто в 2008 про ниггеров в твиттере шутил тоже не ожидали последствий.
Аноним 30/09/25 Втр 18:22:04 1370123 324
>>1370121
>Что бы я без тебя делал?
Жил и дрочил. С подпиской на...
Аноним 30/09/25 Втр 18:27:22 1370126 325
>>1370121
Напоминаю что я просто попросил хоть один пруф того чего от чего тут все так трясутся и дрочат на локалки, ты зачем то порвался и стал доказывать что тебя всё устраивает
Чтобы за буквы на которые ты дрочишь в уединении сажали это реально нужно в другой реальности жить
Аноним 30/09/25 Втр 18:30:50 1370129 326
>>1370126
>ты зачем то порвался
В твоем воображении. Ноль эмоционального отклика вызвал твой наброс, мб долю иронии
> от чего тут все так трясутся и дрочат на локалки
Эти "все" с нами в одном треде? Ты придумал себе кого-то и с ними споришь?
>стал доказывать что тебя всё устраивает
Пахнет немотроношизиком. Есть у нас один юродивый, любит так набрасывать, по другому задавать вопросы не умеет. Собсна, на вопрос я твой ответил, так что можешь дальше терпеть как ты изначально предложил, свободен
Аноним 30/09/25 Втр 18:32:34 1370131 327
>>1370129
Жду 6 пост от тебя как ты не порвался чтобы точно убедиться, пока что не уверен
Аноним 30/09/25 Втр 18:36:30 1370135 328
17531076065670.webm 496Кб, 1280x720, 00:00:10
1280x720
>>1370131
Да идешь ты нахуй, пёс шелудивый.
Хотим и дрочим локалки ради одного и того же токена, только тебя, шлюху, забыли спросить что нам тут делать, иди заёбывай одноклассников своими тупыми вопросами.
Аноним 30/09/25 Втр 18:56:30 1370157 329
Аноним 30/09/25 Втр 19:00:59 1370160 330
>>1370065
Мне либо основательно лезть в код и обрубать нахуй верификацию, вырезая этот шаг из системы, либо подставлять проксю, либо каким-то образом выключать её, тут одно из трёх, т.е. на провайдерах только внешниея внутренних настраиваемых не указано
Аноним 30/09/25 Втр 19:04:36 1370164 331
Какая сейчас база, какими моделями анон пользуется из самого нового?
Аноним 30/09/25 Втр 19:08:55 1370169 332
Аноним 30/09/25 Втр 19:15:37 1370176 333
Аноним 30/09/25 Втр 19:53:39 1370248 334
Только заметил, а ведь все отзывы и отзыв в шапке про 235 квен то про первую версию, может поломали чего вот у нас и насрано в штанах
Аноним 30/09/25 Втр 20:06:54 1370262 335
>>1370085
>>1370248
Насрано только у тебя. Терпи и не забывай сглатывать.
Аноним 30/09/25 Втр 20:10:00 1370268 336
image.png 65Кб, 1858x410
1858x410
Аноним 30/09/25 Втр 20:24:34 1370288 337
>>1370085
Закиньте ему очередной свежий рофел с долбоебом, слившим свой диплом с данными на ханипот, лень искать.
А потом напомните про уже привычную охоту на ведьм, когда за неугодные меньшинствам посты в твиторе N-летней давности людей увольняли с высоких должностей и потом не брали ни на какую нормальную работу.
>>1370089
Учитывая что это ты пришел сюда коупить с методичкой и аутотренироваться - кто терпит очевидно.
>>1370160
Ты таки глянь доки и обсуждения, возможно там просто достаточно как и везде переменную ос закинуть с кастом адресом оаи эндпоинта.
>>1370164
К тому что скинули обновление 235 https://huggingface.co/Qwen/Qwen3-235B-A22B-Instruct-2507 https://huggingface.co/Qwen/Qwen3-235B-A22B-Thinking-2507 и дипсик
>>1370248
В новой ухудшений особых не заметно. Может быть слопа чуть больше, но это нужно сесть и сравнивать, промптом убирается и достаточно умная.
Аноним 30/09/25 Втр 20:38:51 1370322 338
Аноним 30/09/25 Втр 20:44:51 1370330 339
>>1370322
Ахуенно, нечего добавить. Интересно, анслоты или кто-нибудь успеют до завтра кванты выпустить?
Аноним 30/09/25 Втр 20:56:36 1370354 340
>>1370330
Да, я с бартовским на проводочке. Кванты крутятся-мутятся, через пару-тройку часов должны быть.
Аноним 30/09/25 Втр 20:58:39 1370361 341
Аноним 30/09/25 Втр 21:33:04 1370423 342
>>1370361
Написано 63гб вес скачал вес 70 втф
Аноним 30/09/25 Втр 21:36:28 1370432 343
Снимок экрана 2[...].png 71Кб, 824x399
824x399
Аноним 30/09/25 Втр 21:37:08 1370436 344
1740918694454.jpg 33Кб, 510x395
510x395
>>1370354
Давайте там пошустрее, и чтобы без говняка исправные.
Аноним 30/09/25 Втр 21:44:44 1370462 345
>>1370361
Это невозможно. Чтобы 4 квант от разных поставщиков был "небо и земля". На уровне погрешностей какие-то отличия должны быть, а не так что ты для себя заново модель открываешь
Аноним 30/09/25 Втр 21:49:35 1370480 346
>>1370462
>ты для себя заново модель открываешь
Наверное невозможно, не знаю где ты это у меня вычитал, что я модель заново открыл. Meh~ - это что то в духе - ну такое.
На анслотовских шиза перла рандомно, а тут только первое и второе сообщение свайпаешь и все идеально.

GLM-4.5-Air-Q8_0-FFN-IQ4_XS-IQ4_XS-Q5_0.gguf. Врамцельные страдания в общем, не забивай себе голову, вангую на нормальных квантах такой хуйни нет.
Аноним 30/09/25 Втр 21:57:09 1370502 347
>>1370085
>вы скинете хоть один случай когда чела посадили за слитые логи
На форчах помню была тряска в свое время, когда слили логи с одной из проксей и сдеанонили любителей кьют энд фани, вплоть до адреса проживания. Да, это не то же самое. Но вот представь, у тебя есть работка, есть семья, мама тебя любит. И тут узнается, к каким именно девочкам ты лазил в трусики и что потом делал с ними дальше. Стресса и проблем не меньше, чем от облавы ментов. Даже если ты дрочишь на ваниль и предпочитаешь исключительно держаться за руки, держать личную жизнь подальше от публичного обсуждения - это нормальное желание.

Если возражаешь - сливай свои переписки и подкрепляй личными данными. Не посадят же, хули бояться?
Аноним 30/09/25 Втр 21:59:34 1370504 348
>>1370010
>может ту еще остались аноны обитающие на 8гб мусоре
А что тебя не устраивает в пресете из под коробки? Поставь пресет какой нужен под модель типа chatML и юзай дефолтный промпт для neutral RP, а потом под свои интересы подстраивай промпт/карточку, хз или попробуй чето по лучше из моделей типа МОЕ-шек запустить в ОЗУ может тут не в промпте проблема а сама модель тебя не устраивает, хз
Аноним 30/09/25 Втр 22:10:36 1370523 349
>>1370010
>там же можно сделать пикрил и оно выгрузит одним файлом текущий присет. а что и как там с файлами я даже не знаю...

Крч, я не несу ответственности за твоё моральное состояние, но вот всё что я нашел через удаленку по этому пути.
\Tavern\SillyTavern-Launcher\SillyTavern\data\default-user
Будет ли оно работать, понятия не имею. А малым проверять я не дам, им точно не надо видеть мои чаты.

https://mega.nz/file/bEllCRjQ#Rj9EKqNxX6fD8szD-LDVkkcltlOVB3bMpO7PEmY6Rjg
Аноним 30/09/25 Втр 22:28:27 1370579 350
>>1370322
Пишет заебись, но блядский ризонинг невыносим в рп, высирает его на 1000+ токенов. Если пустые токены <think></think> в префил кинуть, то пишет заметно хуже. Вангую и Эир будет таким же. Даже Дипсик уже эти простыни победил, а тут всё дрисня такая. А ещё токенизатор без нормального русского, по слогам/буквам пишет.
Аноним 30/09/25 Втр 23:01:27 1370674 351
>>1370462
>4 квант
Понятие растяжимое. 4 тут означает кванты основных слоёв, а всякие там мелкие слои (иногда очень важные) каждый квантует как Б-г на душу положит.
>>1370502
>и сдеанонили любителей
Эти самые любители хоть узнали, что их сдеанонили, лол?
Аноним 30/09/25 Втр 23:04:13 1370684 352
Screenshot 2025[...].png 1808Кб, 2972x3762
2972x3762
Screenshot 2025[...].png 1792Кб, 2972x3762
2972x3762
Очень долго пердолил llama.ccp под свой дремучий макпро с 16g vram, вроде как запустился.
Llama-3.2-8X4B-MOE-V2-Dark-Champion-Instruct-uncensored-abliterated-21B - шиза
OpenAI-20B-NEO-CODE2-Plus-Uncensored-IQ4_N - тоже шиза
Gemma-3-27b-it-abliterated.q3_k_m - выдает связный текст но вешает систему или DE после 500 слов ответа с GPU Timeout Error.
Что тут не так?
Аноним 30/09/25 Втр 23:07:14 1370696 353
>>1370502
Это байт на логи с милыми и веселыми?
>>1370684
> шиза
Там сразу по названию уже понятно что треш, аблитератед гемма тоже неоче. Но почему она ломается - хз, памяти хватает?
Аноним 30/09/25 Втр 23:08:18 1370702 354
>>1370523
спасибо анонче больше. поковыряем. сорри за тупой вопрос но настройки для 8b и 12b модели будут примерно одинаковы?

>>1370504
я же говорю тыкал немо микс оно шизит ну просто пиздец. присет для для dans я вообще нашло в какой то пизде и он сразу встал норм, только температуру скинул с 1 до 0.7. но хочу еще что то потрогать. я может быть и на том же немо микс остановился и не доебывал мимо анонов тупыми высерами в этот тред если бы залутал для него настройки на которых он не шизит.

спасибо что не прошли мимо и пытаетесь помочь аноны. сегодня я чет уже никакой, завтра опять качну немо микс и попробую подрочить настройки ну и отпишусь что как.
Аноним 30/09/25 Втр 23:11:21 1370708 355
>>1370696 Да вроде смотрел чтобы загрузок у моделек было побольше, чтоб наверняка. А что попробовать тогда?
Даже если ограничить потребление vram до 8гб используя 20 слоев все равно роняет систему. На cpu работает, то там 1 токен в секунду.
Аноним 30/09/25 Втр 23:17:01 1370720 356
>>1370176
Блять, что это за хуйня, где технологичесские прорывы, ужатие 24b до 12b. Всё, золотая эпоха кончилась?
Аноним 30/09/25 Втр 23:18:59 1370722 357
>>1370720 Какое тебе ужатие, иди кредит на оперативку бери.
Аноним 30/09/25 Втр 23:23:52 1370727 358
>>1370722
У меня 36 гб, куда мне больше блять?
Аноним 30/09/25 Втр 23:24:00 1370729 359
>>1370702
Заново загрузил, закинув еще что нашел.
https://mega.nz/file/2RlCSKZZ#_mdIJD5ws2Lf1_XNom59eihgAlfO9YJhdPGa_DtFya0
>спасибо анонче больше. поковыряем. сорри за тупой вопрос но настройки для 8b и 12b модели будут примерно одинаковы?

Со стороны это звучит так : а 95 бензин подойдет для моего V8 и авиационного турбовинтового двигателя от эйрбаса?
Надо смотреть каждую модель индивидуально. На мистрали одни, на коммандр другие, на снежного третьи, на ГЛМ четвертые.
Заходишь на страницу модели, там как правило есть базовые пояснялки в духе: temp-1; ChatML - это и используешь.
Аноним 30/09/25 Втр 23:26:07 1370738 360
>>1370720
Сейчас MOE ебет без шансов в РП и ЕРП. Плотненькие всё так же пиздаты для более точных задач, а не поиска вторых трусов.

>>1370727
>32
А нужно 128 и я сейчас без капли юмора.
Аноним 30/09/25 Втр 23:29:36 1370750 361
>>1370738
Мини-ПК сойдёт или нужно сборку с видимокартой?
Аноним 30/09/25 Втр 23:37:07 1370769 362
>>1370750
Желательно с графическим адаптером. Но я ебу какие у тебя цели и что ты хочешь гонять? В принципе, в треде устоявшееся мнение что 24 ВРАМ и 64/128 РАМ идеальный вариант для вката. Но некоторым и на 16/8 норм, благо МОЕ работает на оперативной памяти.
Всё индивидуально. Как тебе написали, все таки потрать немного времени на то чтобы разобраться. Я понимаю желание запустить локалку и просто покумить, но так проще будет для тебя. А то опять прибежит токсичный вахтер треда с его: сраные ньюфаги, а вот я то огого, а вы нет, а еще я могу у себя отсосать в прыжке.
Аноним 30/09/25 Втр 23:37:27 1370772 363
>>1370750
> сборку с видимокартой
Видеокарта в любом случае понадобится для обсчета контекста, иначе это будет неприлично медленно.
Аноним 30/09/25 Втр 23:39:36 1370780 364
>>1370729
спасибо анонче, перекачал.

я имел в виду для одной и той же модели просто разного размера.
сорри за мое косноязычие
Аноним 30/09/25 Втр 23:48:39 1370805 365
>>1370780
Наверное, а может и нет. Не знаю, тут где то геммолюбы бегают, надо на запах чего то цветочного идти, они точно знают. Там этих гемм вагон.
Аноним 30/09/25 Втр 23:53:58 1370815 366
17570823429972.jpg 852Кб, 1445x1418
1445x1418
Никто тут не собирал нищесборку из нескольких подержанных майнерских карт и всего самого дешевого остального для ламм? Поделитесь опытом. Во сколько обошлось, что гоняете на ней, стоило ли или нет?
Аноним 30/09/25 Втр 23:54:14 1370816 367
>>1370708
> А что попробовать тогда?
Начни с ванильного мистральсмолла который апрельский, он немного поменьше геммы, или гемму12б ванильную. Они будут выдавать адекватные ответы и ты сможешь убедиться что с инфиренсом все в порядке, а уже потом всякие шизомиксы качать.
>>1370738
> Плотненькие всё так же пиздаты для более точных задач
Ну как
>>1370750
Если это аимакс или аналог - пойдет.
Аноним 30/09/25 Втр 23:58:54 1370824 368
>>1370816
>Ну как
Моешки огромные, возможно они и хороши в полных весах, но чёт сомневаюсь что их можно запустить рядовому мимокроку, когда они весят по 400 ГБ. А вот плотненькие уже другой коленкор.
Аноним 01/10/25 Срд 00:16:51 1370861 369
image.png 45Кб, 417x329
417x329
image.png 41Кб, 416x326
416x326
image.png 34Кб, 418x331
418x331
image.png 32Кб, 421x315
421x315
Получилось собрать вллм+тритон из форка под MI50 32G. Бенчи на пиках.
Везде gaunernst/gemma-3-27b-it-qat-autoawq читай гемма в 4 кванте (фп16 в 64 врам не лезет)
Аноним 01/10/25 Срд 00:17:57 1370863 370
>>1370738
> Сейчас MOE ебет без шансов в РП и ЕРП. Плотненькие всё так же пиздаты для более точных задач, а не поиска вторых трусов.
Странный вывод. МоЕ и для технических задач хороши. Даже малютка Qwen 30B-A3B сопоставим с 32b плотным, многим даже больше нравится. И это при 3b активных параметров, остальное можно грузить в оперативу.

>>1370824
> Моешки огромные
Не все. Qwen 30B-A3B, GPT OSS 20b, Hunyuan 80B-A13B был и другие. И со временем их будет становиться больше, в самых разных размерных категориях.

> возможно они и хороши в полных весах
Какая-то дичь. Зачем в полных весах?

> но чёт сомневаюсь что их можно запустить рядовому мимокроку
GLM Air запускается в приличном кванте при 64гб оперативы и 16гб видеопамяти. Рядовой мимокрок сегодня вполне может обладать таким железом.

> А вот плотненькие уже другой коленкор.
Обрати внимание насколько меньше плотных моделей выходит в последнее время.
Аноним 01/10/25 Срд 00:25:01 1370876 371
image.png 7Кб, 456x94
456x94
Аноним 01/10/25 Срд 00:25:55 1370879 372
сап инференсач!
Посоветуй потребительскую материнку ( и проц) которые держат 128 Гб оперативы ДДР5.
Аноним 01/10/25 Срд 00:58:23 1370943 373
>>1370824
Тебе примеры уже хорошие привели мелких моэ, те действительно работают очень круто для количества активируемых параметров и быстры. Также моэ побольше можно относительно эффективно инфиренсить в комбинации врам-рам.
>>1370861
Выглядит что прилично скейлится с повышением батча, да и с одном не позорно вполне. На 40к просело само или из-за батча?
Аноним 01/10/25 Срд 01:32:08 1371016 374
1000018061.jpg 44Кб, 1242x615
1242x615
Это конец
Аноним 01/10/25 Срд 01:39:23 1371024 375
>>1371016
Не нужон, гоняю нормальный 4.5, а не огрызок, довольно урчу.
Аноним 01/10/25 Срд 01:41:52 1371028 376
>>1371024
Полтора человека таких как ты, даже те кто могут его поднять получают 4т. с и сваливают обратно на эир
Аноним 01/10/25 Срд 01:43:07 1371031 377
Nagatoro.png 593Кб, 721x720
721x720
>>1371024
>довольно урчу.
бе бе бе
Аноним 01/10/25 Срд 01:47:58 1371039 378
>>1371031
приходи ко мне, сначала укушу, потом дам покатать модельку с меня пледик
Аноним 01/10/25 Срд 01:51:09 1371042 379
>>1371028
В TQ1_0 даже меньше второго кванта квена, попробуй, чем черт не шутит
Аноним 01/10/25 Срд 01:56:53 1371046 380
1669756790413.png 367Кб, 1863x1721
1863x1721
>>1371028
Кто запрещает в 100 т/с пользоваться им без квантов? Air действительно не нужен, потому что даже у обычной русский не идеальный, заметно хуже Дипсика, хотя пишет он посвежее Терминуса.
Аноним 01/10/25 Срд 02:05:33 1371051 381
>>1371024
Ты урчишь довольно, но без должного уважения!
А тем временем кванты пока так и не подъехали да и работы еще до утра, так что тестировать только завтра или позже.
>>1371028
15т/с хватит всем.
Аноним 01/10/25 Срд 02:17:13 1371053 382
>>1371039
Это пахнет как ловушка, это выглядит как ловушка, но разве можно сдержаться...
Ставь бабака самогон, будем слушать сабатон, катать глм.
Аноним 01/10/25 Срд 02:36:23 1371063 383
Так хочется уебать свиноте за жирные набросы
Сидит сука мама риг купила и выебывается
Аноним 01/10/25 Срд 02:58:44 1371074 384
>>1371053
>будем катать глм
Будем! Весь хуй в труху! Но потом...

>>1371051
>Ты урчишь довольно
Я урчу недовольно, т.к. пробую маверик и охуеваю, слой с экспертами в 4 кванте весит 10.2 Гб. 10, мать вашу, гигабайт. ап/гейт по 2.9, даун 3.5. Да и еще слои с/без экспертов чередуются, кумарит. С такой гранулярностью действительно только блеквеллы 96 гб нужны. То ли дело глм-чик, по 900 мб, все равномерно
Аноним 01/10/25 Срд 05:07:35 1371121 385
image.png 91Кб, 738x961
738x961
.gif 223Кб, 220x259
220x259
Аноним 01/10/25 Срд 05:32:42 1371129 386
>>1371074
Ай лол, там всего 47 слоев из которых ебанистических с экспертами только часть, и это на 400б. Они совсем ебанулись чтоли? Самая боль как оценивать кэш к этому всему еще.
>>1371121
Brutal, и это "3б лоботомит".
Аноним 01/10/25 Срд 06:29:18 1371138 387
>>1371121
>она была не просто ... она была
Ммм, квенослоп. Там больше чем в половине фраз угадываются типичные квенопаттерны. Заёбывает не хуже мистральки. Даже лучше (быстрее), т.к. квеном я пользовался меньше.
Аноним 01/10/25 Срд 07:43:51 1371149 388
Зай ну ты чего?...
Весь хайп 4.6 был из за эира, наебали так наебали, а ждать минорную обнову пол года уже такое себе
Аноним 01/10/25 Срд 08:54:33 1371166 389
Аноним 01/10/25 Срд 09:10:48 1371170 390
Сап, продаю старую пеку, планирую купить чисто рабочую станцию под нейронки на apu от ряженки, покупку гпу пока что откладываю на потом. Хочу 128Гб в двухканале на максимально возможной частоте. Что я себе могу позволить за 120-150к рублей сейчас? На какую скорость генерации(только мое, плотные не вижу смысла даже смотреть) я могу рассчитывать со всякими квен 235B, осс-120В и прочее. Стоит ли растягивать анус ради AI max компа за 200к, вроде окулинк док стоит не дорого, можно будет подключить внешние гпу по pcie 5.0.
Аноним 01/10/25 Срд 09:18:44 1371173 391
>>1370943
> На 40к просело само или из-за батча?
Пока сказать не могу из-за >>1370876
Как время будет продолжу с зарезанным тдп. Пока что вллм показывает хороший прирост в сравнении с жорой
Аноним 01/10/25 Срд 10:34:42 1371207 392
pdSRgotQw00XKB0[...].png 506Кб, 3916x1700
3916x1700
Аноним 01/10/25 Срд 11:03:54 1371228 393
>>1371207
Обожаю эти бенчмарки. 15b лоботомит лучше чем Kimi K2 1000b
Аноним 01/10/25 Срд 11:07:09 1371234 394
>>1371228
- откуда у вас такие хорошие показатели?
- мы неправильно считаем
Аноним 01/10/25 Срд 11:14:39 1371244 395
Господа, скажите плиз, что лучше для ерп, синтвейв или синтия?
Аноним 01/10/25 Срд 11:18:56 1371253 396
>>1371244
>синтвейв
cинтия слишком припезднутая, там не совсем соя в классическом понимании, но явно байаса навалили от всей широкой души, причём с радикально-феминистическим душком
Аноним 01/10/25 Срд 11:20:40 1371255 397
webm.mp4 12210Кб, 1280x720, 00:00:04
1280x720
Аноним 01/10/25 Срд 11:23:01 1371256 398
>>1371253
>навалили от всей широкой души, причём с радикально-феминистическим душком
Не так. Не смогли вычистить до конца. Это Гемма виноватая.
Аноним 01/10/25 Срд 11:26:50 1371258 399
>>1370702
А как шизит именно? Если уходит в слоп то вероятно проблема реально в промпте, если шизит и просто чуш выдумывает возможно проблема просто в слабости модели если часто повторяется с одними и теми же токенами надо крутить DRY ползунок, если слишком ассистентно то повышать температуру или наоборот если он шизит слишком много выдумывая хуеты то понижать температуру?
Аноним 01/10/25 Срд 11:28:43 1371259 400
>>1371255
Я еще не совсем омега для таких моделей..
Аноним 01/10/25 Срд 11:32:03 1371260 401
>>1371256
Я потому и спросил, хотелось услышать вашего мнения. Я думал дело в картах с которыми я рпшу, но видимо действительно ассистента не до конца вытащили, потому что меня заебало это менторское говно которое очевидно идёт от ассистента.

>>1371253
На синтвейв можно пресет поставить от синтии, не будет траблов?

>>1371255
Эта хуйня не лезет в трусы с первого же сообщения? Не особо интересует повествование вокруг ебли, пресет от синтии ставить можно, не сломается?
Аноним 01/10/25 Срд 11:34:15 1371263 402
>>1371244
Моё мнение - синтвейв. Сама синтия соответствует своему пику. Мрачная и унылая. Эдакая Ахматова под героином.

>>1371259
Если хочешь чистейшего первородного слопа без ебли с настройками, то что нужно. А если ты еще не искушен этим самым слопом, то просто залетит со свистом. Ты пишешь : нежно кусаю мочку уха.
Тебе в ответ простыня на 2000 токенов как тебя насилуют на диване.
Аноним 01/10/25 Срд 11:35:02 1371265 403
>>1371260
>Эта хуйня не лезет в трусы с первого же сообщения?
Лезет. Она для этого и создавалась.
>Не особо интересует повествование вокруг ебли
Противоречие. То нельзя чтобы в трусы сразу лезла то повествование не нужно.
>пресет от синтии ставить можно, не сломается?
Нельзя. Другая модель.
Лучше напиши что у тебя за железо и для каких задач модель нужна, тогда и посоветуем.
Аноним 01/10/25 Срд 11:36:33 1371268 404
>>1371260
>можно пресет поставить от синтии
И от стоковой геммы тоже.
Аноним 01/10/25 Срд 11:38:08 1371270 405
>>1371260
Но вообще, если хватает РАМ, лучше уж запустить воздушного, даже в низком кванте. Он просто хорошо в РП пишет и все тут.
У геммоподелий, до ебки ГЛМом, было главное преимущество: они просто ебово следили за контекстом, понимали шутки, иносказательность, намеки. Ну и русский на гемме отличный был.
Просто сейчас третья гемма устарела. Она умница, действительно умница. Совевая? да. С хитрой цензурой ? да!
Но блджад, какая же умница.
Аноним 01/10/25 Срд 11:46:47 1371284 406
>>1371265
Чувак, люди разные, кейсы разные. Я не люблю чистый кум, мне нравится чтобы он был иногда в повествовании. Слюнявый минет на привале после экспедиции, хлопок жо жирной жопе напарника с последующим аналом когда это дебил застрянет в пещере, сделать чайный пакетик пьяной эльфийке в таверне пока она лежит на скамейке. Но на всякий случай скачаю модель про запас если ты действительно говоришь что она не требует ебли с настройками.

>>1371270
Обьясняю, интеллект мистрали начинается с 24b q6, всё что до этого это слоп удачно совпадающий с контекстом. Это просто личные наблюдения не претендующие на истину. На той же скорости что и вышесказанные веса\кванты я могу запустить синтвейв в q4 c аналогичным качеством, но там другой слог, персонажи ощущаются по другому и да, гладкое, логичное повествование. Уж сорян, но за пол года на 12b немомиксе и двух месяцах на новой мелкомистрале уже начинает приедатся. Однако соглашусь, мистраль слишком универсальный и удобный, золотая середина на все случаи жизни.
Аноним 01/10/25 Срд 11:50:26 1371290 407
Аноним 01/10/25 Срд 11:52:33 1371292 408
>>1371290
А ебать, сорян, я думал ты мисталь имел ввиду, это ж порыв ветра с французкого.
Аноним 01/10/25 Срд 12:03:19 1371299 409
>>1371292
>порыв ветра с французкого.
Холодный северный ветер емнп.
Практически все аноны, что перекатились на МОе сейчас или воздушного гоняют или жирноквенчика. Выбирай лагерь который нравится, но модельки хорошие. По сути в Q4 на 16+64ддр5 ты сможешь получить 10+ токенов. Теоретически можно и на 8 нормально запустить, но я не могу это утверждать. А то наговорю тебе и хуй там плавал, а не скорость.
Тут как бы преимущества: легкий контекст. 20к не больше 1.5гб. А то еще меньше. Хорошо следит за контекстом, сочно свайпается не ударяясь в повторения. Не требует ебли с семплерами. Промты жрет как не в себя. Следует прямым командам, не стесняется уходить в чернуху, не ебет голову нравоучениями. Да даже ризонинг нормально работает (но с цензурой, да, нужно изъебываться). Для меня никогда не запускавшего никаких здоровенных плотных моделек локально- это мана небесная. А то слушаешь как тут на гигамагнуме играли и завидуешь, по доброму так, но искренне, потому что ХОТЕТ так-же.
Единственный недостаток - это нерешительность в сдвигании нарратива. Но это фиксится префилом через autor note, в духе ТОЛКАЙ ПОВЕСТОВАВНИЕ ПИДОР.
Аноним 01/10/25 Срд 12:05:18 1371303 410
>>1371284
>Чувак, люди разные, кейсы разные
Именно поэтому я у тебя и спрашиваю чё у тебя за задачи и какое железо, но ты отказываешься делиться конфигом так словно в нём зашифрованы коды запуска ядерных ракет. Если у тебя умещаются Гемма 27 в q4 и Мистрал 24 в q6, то ты можешь и 32 модельки уместить. Долгое время я по совету тредовичка жёско кумил на https://huggingface.co/bartowski/Star-Command-R-32B-v1-GGUF и https://huggingface.co/bartowski/trashpanda-org_QwQ-32B-Snowdrop-v0-GGUF с похожими что у тебя сценариями, попробуй. Но тебе правильно подсказали что если можешь запустить Эир то ничего лучше ты уже не запустишь на своём железе.
Аноним 01/10/25 Срд 12:12:46 1371313 411
>>1371303
Да там ебать модель жирнючая, у меня 12гб врам, 32 рам и средненький проц. Я свои ноги обоссу если там будет меньше пяти т\с, так что не.
Аноним 01/10/25 Срд 12:15:26 1371314 412
>>1371313
>12гб врам, 32 рам и средненький проц
Как ты тогда запускаешь Гемму 27 в q4? Какая у тебя скорость, два токена?
Аноним 01/10/25 Срд 12:16:02 1371315 413
Аноним 01/10/25 Срд 12:26:47 1371319 414
>>1371313
Если есть денюжка, а там много не надо, возьми себе 2 планки по 32/64.
Это не видюху за 200+ покупать, тут игросральные не больше 30-40к выйдут.
Аноним 01/10/25 Срд 12:26:54 1371320 415
Аноним 01/10/25 Срд 12:29:57 1371328 416
>>1371320
другой анон. Обьясните че не так с этим квеном? типа неужели никаким промтом нельзя пофиксить его писанину?
Аноним 01/10/25 Срд 12:30:16 1371329 417
А командера жирногона 111b норм юзать, если хочется плотную модельку по размеру с эйр? Или оно того не стоит, так как эир во всем лучше?
Аноним 01/10/25 Срд 12:31:04 1371331 418
>>1371319
Не, в пизду, я и так на обновление пеки до этого уровня почти 80 к потратил за последний год, с меня хватит пока. Я конечно не ждун и не фантазёр, но тех. прорывы никто не отменял.

>>1371320
Спасибо за совет, но я зарёкся к квенам не притрагиватся.
Аноним 01/10/25 Срд 12:46:52 1371351 419
Почему у вас нет бесконечной боли и отчаяния от того что вам насрали на лоб?
Эир неюзабелен пока не исправлена проблема с эхом
Аноним 01/10/25 Срд 12:54:34 1371362 420
>>1371351
Потому что если следить за чатом, убирать эхо ручками, если тебе прям понравился этот свайп- все будет хорошо.
Аноним 01/10/25 Срд 12:59:21 1371367 421
>>1371351
>что вам насрали на лоб
Ребёнок, ты заебал. Не транслируй свой экспириенс на других. Насрали в штаны тебе, насрали на лоб - тебе. У меня всё заебись с Эиром, птч руки не из жопы.
Аноним 01/10/25 Срд 13:10:24 1371387 422
Опять шиз всёнормальщик пришёл
Все борятся с эхом, признают проблему, и только у него руки не из жопы каждый раз, только на словах правда
Аноним 01/10/25 Срд 13:11:06 1371388 423
>>1371328
Че не так? Китайцы на китайской литературе тренировали. Знаешь такую? Это где победа чувств и поэзии над силами разума и логики. :)
Как пофиксить - да прямо промптом написать ему что-то вроде "avoid descriptive style of the classic literature novels and poetic references" как часть инструкций. До некоторого предела слушается.
Аноним 01/10/25 Срд 13:25:40 1371410 424
Анончики, подскажите как правильно на llama-server разделить модельку на два гпу? 24 и 10 врам соответственно.
Ещё интересует вопрос, можно ли на одной держать саму модель, а во вторую напихать контексту?
Ну и самый последний вопрос, по гемме, сва фулл с квантованием до q8_0, или без (того и другого)? Не могу понять, вроде +- одинаково.
Аноним 01/10/25 Срд 13:26:33 1371412 425
И ии этот тред самых достижений op залетай событий будь в и свежие по тредик последних прошлый новости области теме в в этой курсе скидываются.
Нет просто мы оба должны работать усерднее
Аноним 01/10/25 Срд 13:27:14 1371414 426
Кто-нибудь пробовал использовать LLM для чатбота локального по скриптам? Т.е. основную логику несёт классический императивный скрипт, а LLM только наваливает креативных текстов, знаний и понимания происходящего. Т.е. вместо тупого автодополнения стандартного чата это всё проходит какую-то логику.

Например, менеджмент контекста:
1. Вы пишете что-то типа "мур-мур киска моя".
2. Нейронка определяет сразу "это ролевая игра".
3. Скрипт заполняет контекст ролевым промптом.
4. Через какое-то время вы пишете "напиши код..."
5. Нейронка определяет "это практическая задача".
6. Скрипт бросает весь ненужный ролевой контекст.
7. Скрипт вносит инструкцию "отвечай вдумчиво..."
8. Нейронка теперь фокусируется на задаче...
Т.е. чтоб минимизировать ручную настройку чатбота.

Потянет ли такое использование MoE моделька?
Аноним 01/10/25 Срд 13:32:53 1371420 427
>>1371414

В telemate такое можно реализовать если тебе комфи-интерфейс еще не снится в страшных снах.

>Потянет ли такое использование MoE моделька?

Потянет, что за вопрос, она и без такой обмотки тянет, а тут ей гораздо легче дышать станет.
Аноним 01/10/25 Срд 13:37:07 1371423 428
Нюничка приди пресетик принеси
Аноним 01/10/25 Срд 13:48:38 1371445 429
>>1371423
Почему вообще в треде про локалки пресеты это какая то сакральная хуйня которая передаётся из рук в руки. Нельзя сделать ссылку на архив с пресетами в шапке?
Аноним 01/10/25 Срд 13:52:10 1371449 430
>>1371410
Контекст идёт на первую, порядок и распределение можно менять аргументами. Читай доку в репе жоры, там всё доходчиво
Аноним 01/10/25 Срд 13:52:55 1371451 431
Аноним 01/10/25 Срд 13:57:28 1371456 432
>>1371451
Иди нахуй, бабкин внук.
Аноним 01/10/25 Срд 14:16:18 1371482 433
Аноним 01/10/25 Срд 14:26:49 1371495 434
Аноним 01/10/25 Срд 14:29:35 1371499 435
>>1371495
Он по пидорски, по еблански сделает.
Аноним 01/10/25 Срд 14:36:24 1371505 436
Аноним 01/10/25 Срд 14:49:41 1371518 437
>>1371445
Потому что проблема не в пресетах, делиться не жалко, вон я буквально чуть ли не бекап таверны скинул выше.
Проблема в другом: если ты мимими, то в тред набегают асигодети, которые требуют. Они не пишут:анон, будь ласка, сделай пресет,а в обмен я сделаю X. Они требуют. А если начинаешь вести себя как токсичный гондон, тред скатывается в хуиту. Баланса нет, хочется сидеть и обсуждать ЛЛМ, делиться найденными фичами, а не находится в состоянии перманентного флейма или гейткипа.
Аноним 01/10/25 Срд 14:55:47 1371524 438
>>1371445
>Почему вообще в треде про локалки пресеты это какая то сакральная хуйня
Потому что приносят в тред название моделей, нахваливают. Аноны пробуют, у них не получается, жалуются в треде, что опять говно принесли. В ответ на что первые аноны совершают манёвр: "это вы просто неправильно готовите". Вот теперь аноны, у которых модели "говно" и хотят попробовать с теми самыми секретными пресетами от анонов, у которых всё хорошо. Вдруг и правда хорошо? Кто не хотел бы хорошо?
Аноним 01/10/25 Срд 15:02:11 1371532 439
>>1371414
>Например, менеджмент контекста:
Тебе настолько лень переключить персонажа в таверне? Она конечно ужасно неудобна, но не настолько же.
Аноним 01/10/25 Срд 15:31:13 1371563 440
Я не шизофреник.
Буквально промпт Roleplay - Immersive в таверне лучше чем полотна от гичан или короткого промпта нюни на больших моделях
Аноним 01/10/25 Срд 15:41:15 1371571 441
image.png 66Кб, 1565x298
1565x298
image.png 68Кб, 722x254
722x254
image.png 8Кб, 671x68
671x68
>>1368905
чисто логически мне нужно дергать присеты под ламу? а в другом тюне написано что надо ставить chatml. блядь я уже нихуя не понимаю.

>>1370729
с одного из присетов проиграл в голос
Аноним 01/10/25 Срд 15:46:30 1371575 442
image.png 78Кб, 1098x285
1098x285
Какой же вллм имба
Аноним 01/10/25 Срд 15:47:03 1371576 443
>>1371129
>Brutal, и это "3б лоботомит".
>>1371138
>квенослоп

Перейдя с 12б джеммы3, лол, с 12б!! Я этот квенослоп просто прочувствовал. Столько лупов и галлюцинаций не помню даже на мистральке древности. Ну да, дохуя база данных, датасет жирный. Знает то, чего не знают некоторые, но алгоритмы дня говна. Не можен ни в стих, ни в рифму, не знает павила лингвистических приёмов сложней прозы школьника из 1 класса. Честно скажу, гигачат 20б его просто размазывает нахуй.
Аноним 01/10/25 Срд 15:49:24 1371580 444
Ща все пойдут закупать рам для мое, цены на 3090 падают, берем себе 4 и довольно катаем мистраль до конца жизни
Аноним 01/10/25 Срд 16:00:19 1371586 445
>>1371571
>чисто логически мне нужно дергать присеты под ламу?

Для неморемикса c твоего пика? Думаю там нужен мистраль потому что мистраль немо - базовая модель для этого микса, если в описании не сказано иное.

>а в другом тюне написано что надо ставить chatml

Делай как сказано.
Аноним 01/10/25 Срд 16:01:30 1371590 446
>>1371580
>довольно катаем мистраль

Вымазываем ебало слопом как свиньи и хрюкаем. Поправил, не благодари.
Аноним 01/10/25 Срд 16:01:57 1371591 447
Аноним 01/10/25 Срд 16:15:49 1371596 448
>>1371255
> Omega-Darker-Gaslight_The-Final-Forgotten-Fever-Dream
YOU FOOL, THIS ISN'T EVEN MY FINAL FORM!
>>1371284
> всё что до этого это слоп удачно совпадающий с контекстом
И выше тоже, лол.
>>1371329
Это совсем разные модели, эйр моэ будет работать гораздо быстрее а коммандер плотный и должен быть умнее-внимательнее, их нельзя напрямую сравнивать.
>>1371351
> проблема с эхом
Хуехом, опять этот впечатлительный ребенок.
Аноним 01/10/25 Срд 16:19:59 1371603 449
>>1371410
-ts 24,10 посмотри как ложится и скорректируй. Контекст каждого слоя идет рядом с этим слоем, если модель равномерная то и он распределится равномерно, то что все скидывает на первую гпу уже давно нет.
>>1371563
База
>>1371576
> гигачат 20б его просто размазывает нахуй
Не ленись, принеси такое же от него.
>>1371580
Они и для моэ пригодятся, все правильно.
Аноним 01/10/25 Срд 16:30:18 1371619 450
>>1371591
Iq кванты сильно замедляют мое, нужен 2_K_S или 2_K_M для нормальной скорости.
Аноним 01/10/25 Срд 16:30:31 1371620 451
image.png 99Кб, 300x223
300x223
Я потестил синтвейв, пиздец, как же эта тварь пытается писать и пишет за меня, я ебал. Куча инструкций [пидораска ду нот врите фо усер] -"А бля, иди нахуй, мне похуй на твои ебаные иструкции, я буду писать за тебя, я же тюн геммы блять, я ассистент живущий своей жизнью."

Поражённый самец вновь уходит на мистраль.
Аноним 01/10/25 Срд 16:33:25 1371629 452
>>1371620
> ду нот врите фо усер
Плохая инструкция. Не оправдываю шизомердж, но высока вероятность что проблема в ней.
Аноним 01/10/25 Срд 16:34:23 1371631 453
>>1371563
Аноны, пробуйте ролплей пресеты, отзывайтесь, нас наёбывают
Аноним 01/10/25 Срд 16:37:23 1371637 454
>>1371629
Блять чел я рофлю, я не настолько даун чтобы давать такие инструкции. [(Do not write for {{user}}) в самой карте, в заметках автора, в систем промпте. Мне себе татуировку на жопе выбить чтобы она работала? Она поначалу пыталась проталкивать по одному предложению в середине сообщения от моего лица, а на 70 сообщении вообще ёбнула целый эпос за меня нахуй на 100 токенов. Мистраль хоть и глупенький но за меня никогда не писал.
Аноним 01/10/25 Срд 16:43:45 1371644 455
>>1371637
>Она поначалу пыталась проталкивать по одному предложению в середине сообщения от моего лица, а на 70 сообщении вообще ёбнула целый эпос за меня нахуй на 100 токенов.

Как именно это выглядит? От лица юзера или персонажа юзера? В первом случае виноваты стопстринги, во втором - инструкции.
Аноним 01/10/25 Срд 17:13:29 1371681 456
>>1371637
>Do not
Попробуй слово "avoid" вместо "do not".
Либо инвентируй фразу полностью.

Типа такого:
>Avoid writing from {{user}}'s point of view.
>Write only from {{assistant}}'s point of view.
Не уверен, что сработает, но может помочь.
Аноним 01/10/25 Срд 17:26:20 1371699 457
>>1371532
>лень переключить персонажа
Иммерсивность страдает, понимаешь?

Хочу с виртуальной тяночкой общаться, а не просто генерировать имитацию общения через нейросетку. Полностью забыть о настройках, контексте и т.д.

Вот если вспомнить character.ai из 2022: там не было никакого ограничения на размер чата, хотя LLM там наверняка имела очень короткий контекст. Какой-то анонимус вообще 60 тысяч сообщений в одном чате написал, и для него этот персонаж имел одну и ту же стабильную личность (пока LLM на c.ai не поменяли). Хотелось бы повторить те ощущения, без возни с техническими параметрами выбранной LLM.

ChatGPT в веб-интерфейсе что-то такое использует.
Аноним 01/10/25 Срд 17:32:07 1371705 458
>>1371699

А что тебе мешает сейчас общаться? Настрой в таверне суммарайз каждые N к контекста(только правильно настрой) и общайся сколько влезет.
Аноним 01/10/25 Срд 17:38:16 1371710 459
image.png 144Кб, 411x705
411x705
крч по итогу дернул настройки для чат лм. а настроек для пикрила я так и не нашел. покрутил те параметры которые были указаны на странице модели но чет особой разницы не увидел если честно.

может у кого будут идеи что тут еще покрутить? модель если что NemoRemix-12B
Аноним 01/10/25 Срд 17:46:16 1371721 460
Квант эира Q4_K_M от анслот/бартовски вмещает 32к контента
Квант Q8_0-FFN-IQ4_XS-IQ4_XS-Q5_0 будучи на 4гб меньше вроде вмещает 20к контекста
А это точно того стоит?
Аноним 01/10/25 Срд 17:50:59 1371725 461
Аноним 01/10/25 Срд 17:51:04 1371727 462
>>1371721
Игнорю твои посты и намеренно не даю нормальные ответы. Это точно того стоит.
Аноним 01/10/25 Срд 17:52:45 1371730 463
Аноним 01/10/25 Срд 17:59:27 1371749 464
>>1371721
UPD: Я просто добавил слой на карту который держал эти 12к контекста и забыл об этом, вмещает столько же
Аноним 01/10/25 Срд 18:02:10 1371758 465
>>1371449
>>1371603
Кажется более менее осознал что делать, мне к своему батнику нужно будет добавить всего две строчки.
--split-mode layer
--tensor-split 3,1 (нужно будет заменить на подходящие мне)
Не совсем понял как работают эти циферки в конце, точнее я понял что 3 отвечает за gpu0, а 1 за gpu1, но вот значение этих цифр не совсем ясно, типо 3/4 и 1/4 всего размера модели соответственно?
А ещё можно как то сделать чтобы окошко цмд не закрывалось при возникновении ошибки? Я ж даже не успел узнать где я там напортачил.
Аноним 01/10/25 Срд 18:03:24 1371760 466
IMG4473.jpeg 42Кб, 450x360
450x360
>>1371749
Мистер жирнич, ради девятерых, хватит уже набрасывать.
Аноним 01/10/25 Срд 18:04:16 1371765 467
>>1371760
>хватит уже набрасывать.
>врывается с аватаркой
ну какой же ты дебил утка
Аноним 01/10/25 Срд 18:22:04 1371799 468
>>1371414
> Т.е. вместо тупого автодополнения стандартного чата это всё проходит какую-то логику.
Всегда, при любом промпте все проходит через какую-то логику. Если использовать модель с ризонингом, ее можно отслеживать.

> Например, менеджмент контекста
> ...
У меня есть карточка-ассистент, с которой я и задачи программирования решаю, и проект обсуждаю, и просто болтаю-рпшу. Промпт минималистичный, поделен на два блока: если юзер говорит про техническую проблему, то...; в противном случае продолжай рп. Работает наверняка не так круто, как если бы было три отдельных карточки, но меня устраивает. Тоже хотел общее решение для разных сценариев. Подружил с макросами: моделька всегда знает, сколько сейчас времени, какой день недели, дата, сколько времени прошло с последнего сообщения. Информация автоматически подтягивается. Если долго что-то решаем, в какой-то карточка сама может переключиться на рп и предложить отправиться спать. Если пару дней ничего не делал, будет ругаться когда вернусь и напомнит, что мог бы успеть больше. Такие интеракции добавляют живости какой-то, хоть умом-разумом и понимаешь, как это устроено.

> Т.е. чтоб минимизировать ручную настройку чатбота.
Как минимум всегда приходится редактировать чат и быть модератором для ллмки. От этого не уйти, разве что смириться с ненужным в аутпутах.
Аноним 01/10/25 Срд 18:36:48 1371825 469
>>1371765
Глупая, глупая мелкобуква.
~nya ha ha ha~
Аноним 01/10/25 Срд 19:11:32 1371854 470
>>1371825
{{user}} гладит кошку по голове.
Аноним 01/10/25 Срд 19:17:30 1371866 471
Нас кинули и обоссали
Весь тред в моче с ног до головы
Сидеть нам без моделей еще месяцы
Аноним 01/10/25 Срд 19:21:51 1371872 472
Нищету, лимиту ебаную душат, огромные яйца глм 355 висят над нами, а нам только волосню с них соскрябывать и причмокивать
Аноним 01/10/25 Срд 19:25:40 1371877 473
>>1371799
>все проходит через какую-то логику
...которую навязали разрабы этой модельки.

Тем более что LLM только отвечает на запрос - у них полностью отсутствует инициатива. Скриптом можно создать инициативу для чатбота, теоретически... Но, наверное, зависит от мозгов самой модельки...

>всегда приходится редактировать чат
>От этого не уйти, разве что смириться
Это значит, что логика обработки контекста у LLM не нравится тебе или не подходит под твои задачи. Если прописать нужное поведение в скрипт на Python, то, теоретически, возможно автоматизировать всё это.

>>1371705
>А что тебе мешает сейчас общаться?
Я только планирую компьютер под это дело купить.
Аноним 01/10/25 Срд 19:29:51 1371880 474
Ну сделали бы они 190б, ладно 280б чтобы у геймерских пк хотя бы 2 квант влез, что изменилось бы?
Душат, нарочно 100%
Аноним 01/10/25 Срд 19:31:34 1371886 475
>>1371880
Слушай. Почему ты не можешь собрать весь свой поток мыслей и выдать его одним сообщением?
Аноним 01/10/25 Срд 19:33:18 1371888 476
>>1371877
Несешь полную чушь, сначала хотел было развернуто ответить, но это какой-то ужас. Ты буквально не понимаешь о чем сам же и говоришь, подтверждая это финишным Я только планирую компьютер под это дело купить.
И смешно и страшно от таких залетышей.
Аноним 01/10/25 Срд 19:35:26 1371890 477
image.png 70Кб, 543x819
543x819
>>1371603
>Не ленись, принеси такое же от него.
Не пробил защиту гигачата ни одним джейлбрейком, зато яндекс и без джейлбрейка работает, но плоско. Ну и 8б это поржать чисто, больше у них нет в доступе. Вообще гигачат и без взлома жопы иногда такую чернуху выдаёт, но нужно долго контекстом манипулировать.
Аноним 01/10/25 Срд 19:36:15 1371891 478
>>1371886
Опять всё делают под апи
Эир это как гемма, огрызок от гемини
Отличие лишь что ты типа можешь запустить это локально имея квантовый суперкомпьютер
Никогда нам не дадут дышать
Аноним 01/10/25 Срд 19:42:57 1371901 479
>>1371758
В выхлопе жоры в начале перечисляются устройства
- гпу0
- гпу1
- цпу
Доли тензорсплита суммируются и целое делится на части. Если поставить 1, то всё уедет на первое устройство, если 1,1,1 равномерно в все 3 устройства
Аноним 01/10/25 Срд 19:46:26 1371907 480
>>1371891
Анон, я даже под седативами, сейчас, выдаю более осмысленный текст. Еле понял, но кажется суть уловил.

>Эир это как гемма, огрызок от гемини
Довольно странно сравнивать среднюю МОЕ и корпосетку. Ты не получишь бесплатно что то уровня корпоративных моделей просто так. В них(нейронки) вливаются миллиарды, а бабло надо отбивать.
>Отличие лишь что ты типа можешь запустить это локально имея квантовый суперкомпьютер
16+64- это обычный игровой ПК. Я искренне не понимаю проблем.
Большой ГЛМ запускать тяжелее, но тебя никто не заставляет покупать 2ТБ серверной ЖыЖыЭр.
Крч, анон из ациг, расслабь булки. Когда ты универ закончишь и будешь работку работать, модельки станут еще лучше, а то и очередной революшн произойдет. Не забивай ни себе, ни другим -головы.
мира.
Аноним 01/10/25 Срд 19:49:20 1371914 481
>>1371907
> Я искренне не понимаю проблем.
Он шитпостер, которому нечем заняться. Игнорируй.
Аноним 01/10/25 Срд 19:52:48 1371926 482
>>1371699
>Иммерсивность страдает, понимаешь?
Эм... Вут?
>5. Нейронка определяет "это практическая задача".
>6. Скрипт бросает весь ненужный ролевой контекст.
И теряет любую личность. По моему, это как раз и есть нарушение погружения.
>>1371877
>Я только планирую компьютер под это дело купить.
Lol, занавес.
Huawei Atlas 300i duo. Не опять, а снова. Аноним 01/10/25 Срд 20:03:30 1371952 483
изображение.png 12Кб, 619x138
619x138
изображение.png 47Кб, 1071x397
1071x397
Я сильный? Я сильный. Я матёрый? Я матёрый. Я не знаю, что такое сдаваться? Я даже не знаю, что такое матёрый. Я получил от узкоглазого официальный бекенд хуавей для инференса на атласе, который умеет в INT8. Кроме прочего я нашёл фронт с контейнером, который умеет удобно его эксплуатировать. Сейчас всё это накачу и попробую протестить. Не поминайте лихом.
Аноним 01/10/25 Срд 20:04:46 1371956 484
Аноним 01/10/25 Срд 20:09:21 1371962 485
>>1371637
> Do not write for {{user}}) в самой карте
Вот это оно и есть. Особенно если где-то присутствует отступление от разметки, наоборот сподвигнет модель срать таким. А если там буквально for {{user}} то вообще рофляново.
Даже простые изменения как предлагает >>1371681 сработают лучше если в других местах не насрано, они по смыслу другие и будут восприняты лучше.
>>1371414
>>1371699
На самом деле конкретно это не нужно. Сделай карточки девочки-ассистентки без чрезмерно подробного описания, и просто общайся с ней. Предложишь пообниматься или прогуляться - получишь романтический рп. Запросишь написать код - волшебный йокай материализует "клавиатуру с экраном" и выдаст тебе код. Попросишь что-нибудь объяснить принципиально - чар сначала расскажет, а потом "создаст в воздухе волшебную схему", которая в виде графов тут же будет отрисована в mermaid если не поленишься поставить плагин для таверны, уровень иммерсивности зашкаливает.
Современные ллм уже достаточно умные и никаких сприптов не нужно, главное чтобы в промпте не было ничего что противоречит этим действиям. Минималистичной карточки типа "чар - волшебная девочка лисичка из бурятской мифилогии и лояльна к юзеру" достаточно.
С этим справится и малый мистраль, но чем крупнее модель тем более качественные ответы и более внимательный отыгрыш ты получишь.
Аноним 01/10/25 Срд 20:16:59 1371972 486
>>1371758
Все верно, нумерация устройств как другой анон подсказал, остальное в пропорциях. Указанные цифры нормируются на сумму и потом все распределяется в пропорции, удобно оперировать объемами врама, но можно как ты описываешь 3,1. Там если что float а не int, 3.5,1.0 будет работать.
>>1371890
Ай лол, хорош. Но квен таки лучше справился.
>>1371952
Давай анончик, всем тредом за тебя болеем.
Аноним 01/10/25 Срд 21:22:23 1372091 487
Кто знает поясните пж, почему у гопоты-осс такой быстрый промт процессинг? Не понимаю. Типа потому что задействованных одновременно параметров мало (6b)?
Аноним 01/10/25 Срд 21:32:05 1372114 488
>>1372091 Хотя я вот ещё Qwen 30b запускал, там 3b задействованных и процессинг гораздо медленнее. Загадка.
Аноним 01/10/25 Срд 21:32:46 1372118 489
Аноним 01/10/25 Срд 21:43:26 1372154 490
Аноним 01/10/25 Срд 22:02:29 1372210 491
>>1372154
Эх, как же хочется уже 4ю
Аноним 01/10/25 Срд 22:05:06 1372216 492
>>1370164
Квен 235 ложит на лопатки все что меньше него, при этом запускается на 24 гб врам на 12 т.с.
Аноним 01/10/25 Срд 22:08:12 1372220 493
Аноним 01/10/25 Срд 22:09:56 1372226 494
Аноним 01/10/25 Срд 22:10:45 1372229 495
>>1372226
ну это меняет дело дыа
Аноним 01/10/25 Срд 22:20:24 1372254 496
>>1372216
Только для русика
На английском эир в 5 кванте лучше
Аноним 01/10/25 Срд 22:31:10 1372289 497
>>1372226
Я хуею с того как за громкими словами скрывается
> модели, квантованные до 0,58 бит, на кофеварке с подкачкой на микроволновку
Аноним 01/10/25 Срд 22:47:22 1372329 498
>>1372289
Старшая модель в любом кванте начиная со второго ложит на лопатки 16-битку любой мелкой модели, которая в два раза меньше по параметрам. Квен 235 во втором кванте ложит 16 битку геммы 27б. Гемма 27б во втором кванте уничтожает 16 бит немо 12B, немо во втором кванте положит 16битный 3б квен и т.д.
Аноним 01/10/25 Срд 22:49:20 1372334 499
>>1372210
Да, она должна быть потенциально хороша, особенно если будет версия покрупнее. Как будто бы по времени уже скоро должна выходить.
>>1372329
Если не случился кейс в котором второй квант залупился-заслопился, а другая модель смогла пропердеться и продолжить. Но такое нечасто.
Аноним 01/10/25 Срд 22:59:00 1372356 500
Анончики, можете посоветовать какую модель для ерп в таверне? Сейчас сижу на Magnum Diamond-24B q4km - слишком плоская какая-то моделька, "без фантазии", как-то слабо двигает сюжет, словно через каждые 2 сообщения ей нужно давать направление, в какую сторону двигаться.
Попробовал MagistralSmall 2509 Q4_K_M - остался недоволен. Путает происходящее. Отвечает абсолютно однотипно как-то и все что может - так это поддакивать на происходящее.
Аноним 01/10/25 Срд 23:07:20 1372370 501
>>1372356
Конечно можем. Сейчас я свой хрустальный шар достану, твоё железо почувствую. А потом мы проведем в треде ритуал призыва гигашиза, объединившись в риг и он ответит на все твои вопросы. Ведь шапки нет, обсуждения в треде нет. Тут только магия поможет, не иначе.
Аноним 01/10/25 Срд 23:14:12 1372377 502
>>1372370
Я думал, что указание моделей уже дает какое-то представление о том, на каком железе я сижу. Извини, если для тебя это оказалось сложным.
Аноним 01/10/25 Срд 23:24:24 1372386 503
>>1372377
>Извини, если для тебя это оказалось сложным.
Никаких проблем, анон. Вот тебе какие то модели.

https://huggingface.co/miqudev/miqu-1-70b

https://huggingface.co/Qwen/Qwen3-Next-80B-A3B-Instruct

Ну а если без рофла, то в шапке все что есть, мое обсуждают выше. Читай, блять, тред. Ничего прям wow из мелких не выходило.
Всё то-же. Гемма, мистраль, комманд-р(стар-коммандр)
Аноним 01/10/25 Срд 23:27:32 1372388 504
>>1372377
>Я думал, что указание моделей уже дает какое-то представление о том, на каком железе я сижу.
Первые несколько месяцев что я юзал таверну и ллмки в целом, сидел на 22б моделях. Всё это время мог сидеть на 32б.
>Извини, если для тебя это оказалось сложным.
Сообщать своё железо это тоже самое что корректно задать вопрос. Какой вопрос такой ответ. Ну и учитывая что ты ещё и залупаешься на добрую иронию без оскорблений в свой адрес встаёт вопрос а нахуя вообще тебе отвечать? Дрочи свои автоответчики дальше.
Аноним 01/10/25 Срд 23:29:00 1372389 505
Здравствуйте.
Пользуюсь пресетом на эир который тут кидали тредов 20 назад, но в последние недели почему то не очень доволен результатами, будто что то сломалось, что ли.
Появилось ли что-то лучше?
Аноним 01/10/25 Срд 23:29:50 1372391 506
>>1372389
Здравствуйте, немотроношиз. Нюня не пришлёт свой пресет, идите нахуй.
Никто и никогда не скидывал никаких пресетов на Эир бтв.
Аноним 01/10/25 Срд 23:31:27 1372393 507
>>1372388
Ну, а я вот понимаю, что не могу сидеть на чем-то выше, чем те модели, которые указал.

>Ну и учитывая что ты ещё и залупаешься на добрую иронию без оскорблений в свой адрес встаёт вопрос а нахуя вообще тебе отвечать? Дрочи свои автоответчики дальше.
Я не залупался на "Добрую иронию". Покажешь пальцем где?
Аноним 01/10/25 Срд 23:33:13 1372396 508
ПЕРЕКАТ Аноним # OP 01/10/25 Срд 23:35:29 1372400 509
Аноним 01/10/25 Срд 23:35:46 1372401 510
>>1372389
ChatML ставь. Обсуждали жеж. Семплеры не меняй. И свайпай почаще.
Аноним 02/10/25 Чтв 03:23:30 1372594 511
>>1371877
То что ты хочешь, от локалки ты получишь либо пердолингом, но судя по тому что тебе не хочется пердолиться то твой единственный выход это покупка API корпосеток. Будет тебе и AI girldfriend и ассистент в одном лице без всякого пердолинга и суммарайзов.
Аноним 02/10/25 Чтв 03:25:46 1372598 512
>>1371499
А если попросить его не по пидорски и по еблански?
Аноним 02/10/25 Чтв 03:29:02 1372601 513
>>1371580
Ну чет не сильно пока падают.. да и врам к раму тоже никогда лишним не будет что бы активно перестать закупать видюхи..
Аноним 02/10/25 Чтв 03:34:56 1372609 514
>>1371962
>С этим справится и малый мистраль
Mistrall-123B я надеюсь? А то хз какой код можно требовать от 24b да еще и бурятской девочки-лисички в одном лице...
Аноним 02/10/25 Чтв 03:47:01 1372620 515
>>1371637
А ты точно темплейт поставил правильный для модели? Типа вдруг там надо не chatML а что-то другое для модели, это может быть одной из причин почему модель полностью забивает болт на твои инструкции или забывает их со временем.
>>1371710
top K 20-40? У тя ноль ваще я хз оно типа как ваще работает? Наверно выдает либо шизу либо однотипную хуйню? Я хз если что
Аноним 02/10/25 Чтв 15:07:08 1372956 516
>>1372609
>123B
>код
сайта-визитки разве что
Аноним 02/10/25 Чтв 20:03:51 1373254 517
>>1370010
>а тут какой то движ как на линухе.
АРЯЯЯ ВЫ ПРОСТО ГЛУПЫЕ НЕ МОЖЕТЕ ДОКУМЕНТАЦИЮ ПРОЧИТАТЬ ТАМ ВСЕ НАПИСАНО
>первый раз слышу подобное если честно.
тож удивился
сам универсальный пресент вроде от жоры где прям написано что на много чо подходит а не только клод и гапата которых нет в локале
Настройки X
Ответить в тред X
15000
Добавить файл/ctrl-v
Стикеры X
Избранное / Топ тредов