Главная Юзердоски Каталог Трекер NSFW Настройки

Искусственный интеллект

Тред закрыт.

Check this out!
<<
Назад | Вниз | Каталог | Обновить | Автообновление | 479 93 148
Локальные языковые модели (LLM): LLaMA, Gemma, Qwen и прочие №187 /llama/ Аноним 06/01/26 Втр 00:12:37 1480267 1
Llama 1.png 818Кб, 630x900
630x900
Эффективность к[...].png 92Кб, 1399x1099
1399x1099
Реальная длина [...].png 671Кб, 1602x2476
1602x2476
17650475213470.jpg 6333Кб, 3072x4080
3072x4080
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!

Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.

Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.

Официальная вики треда с гайдами по запуску и базовой информацией: https://2ch-ai.github.io/wiki/llama/

Инструменты для запуска на десктопах:
• Отец и мать всех инструментов, позволяющий гонять GGML и GGUF форматы: https://github.com/ggml-org/llama.cpp
• Самый простой в использовании и установке форк llamacpp: https://github.com/LostRuins/koboldcpp
• Более функциональный и универсальный интерфейс для работы с остальными форматами: https://github.com/oobabooga/text-generation-webui
• Заточенный под Exllama (V2 и V3) и в консоли: https://github.com/theroyallab/tabbyAPI
• Однокнопочные инструменты на базе llamacpp с ограниченными возможностями: https://github.com/ollama/ollama, https://lmstudio.ai
• Универсальный фронтенд, поддерживающий сопряжение с koboldcpp и text-generation-webui: https://github.com/SillyTavern/SillyTavern
• Альтернативный фронт: https://github.com/kwaroran/RisuAI

Инструменты для запуска на мобилках:
• Интерфейс для локального запуска моделей под андроид с llamacpp под капотом: https://github.com/Mobile-Artificial-Intelligence/maid
• Альтернативный вариант для локального запуска под андроид (фронтенд и бекенд сепарированы): https://github.com/Vali-98/ChatterUI
• Гайд по установке SillyTavern на ведроид через Termux: https://rentry.co/STAI-Termux

Модели и всё что их касается:
• Актуальный список моделей с отзывами от тредовичков: https://rentry.co/2ch_llm_2025 (версия для бомжей: https://rentry.co/z4nr8ztd )
• Неактуальные списки моделей в архивных целях: 2024: https://rentry.co/llm-models , 2023: https://rentry.co/lmg_models
• Миксы от тредовичков с уклоном в русский РП: https://huggingface.co/Aleteian и https://huggingface.co/Moraliane
• Рейтинг моделей по уровню их закошмаренности цензурой: https://huggingface.co/spaces/DontPlanToEnd/UGI-Leaderboard
• Сравнение моделей по сомнительным метрикам: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard
• Сравнение моделей реальными пользователями по чуть менее сомнительным метрикам: https://chat.lmsys.org/?leaderboard

Дополнительные ссылки:
• Готовые карточки персонажей для ролплея в таверне: https://www.characterhub.org
• Перевод нейронками для таверны: https://rentry.co/magic-translation
• Пресеты под локальный ролплей в различных форматах: https://huggingface.co/Virt-io/SillyTavern-Presets
• Шапка почившего треда PygmalionAI с некоторой интересной информацией: https://rentry.co/2ch-pygma-thread
• Официальная вики koboldcpp с руководством по более тонкой настройке: https://github.com/LostRuins/koboldcpp/wiki
• Официальный гайд по сопряжению бекендов с таверной: https://docs.sillytavern.app/usage/how-to-use-a-self-hosted-model/
• Последний известный колаб для обладателей отсутствия любых возможностей запустить локально: https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing
• Инструкции для запуска базы при помощи Docker Compose: https://rentry.co/oddx5sgq https://rentry.co/7kp5avrk
• Пошаговое мышление от тредовичка для таверны: https://github.com/cierru/st-stepped-thinking
• Потрогать, как работают семплеры: https://artefact2.github.io/llm-sampling/
• Выгрузка избранных тензоров, позволяет ускорить генерацию при недостатке VRAM: https://www.reddit.com/r/LocalLLaMA/comments/1ki7tg7
• Инфа по запуску на MI50: https://github.com/mixa3607/ML-gfx906
• Тесты tensor_parallel: https://rentry.org/8cruvnyw

Архив тредов можно найти на архиваче: https://arhivach.hk/?tags=14780%2C14985

Шапка в https://rentry.co/llama-2ch, предложения принимаются в треде.

Предыдущие треды тонут здесь:
>>1475911 (OP)
>>1470041 (OP)
Аноним 06/01/26 Втр 00:56:32 1480286 2
базы треда нет
Аноним 06/01/26 Втр 01:59:41 1480311 3
17659121122610.mp4 7555Кб, 640x480, 00:00:28
640x480
>>1480286
Базу напишешь, а местные дурачки опять не поймут и будут бомбить. Пусть сидят в невежестве.
Аноним 06/01/26 Втр 02:22:10 1480323 4
20251218171501k[...].mp4 12259Кб, 1280x704, 00:00:15
1280x704
>>1480311
База треда успеть купить оперативки до ласт квартала 2025 и лампово теребонькать МоЕшки, остальным соболезнования.
Аноним 06/01/26 Втр 02:55:44 1480327 5
После добавления v100@32 перекинул на нее слои, которые были на теслах. Большая глм прибавила в тг 4 т/с, очень приятно. Дипсик заебался запускать, ебаный пидорас, а не модель. Все загрузилось, вармап пройден, на картах по 1,5-2 Гб свободной врам. Нет, кидает оом после свайпа, урод. Ну и нахуй он не нужен, тащемта.
Аноним 06/01/26 Втр 03:12:46 1480335 6
>>1480266 →
Верно.

Тем не менее:
1. Большая часть компьютеров не имеет больше 32 ГБ видеопамяти.
- По настоящему крупные модели подавляющее большинство не запускает на видеокартах полностью или почти полностью. Как говорят - это не для вас написано, лол. Буквально, задача в другом.
- У геммы 27B 6% параметров (без вижен-части) - эмбеддинг. Если оставлять его в 16-бит, а остальное гнать в 4 бита, то доля будет уже 20%. Достаточно значимая часть, чтобы об этом думать, тем более если влияние на метрики или на ощущение "на глаз" действительно заметное.
2. Я не питаю иллюзий, что я напишу exl4 или придумаю что-то концептуально новое. Нет даже особого смысла на это замахиваться. Даже если мне получится всего на 0.2% сократить потребление памяти при том же качестве со своей позиции без особых навыков и ресурсов - это большое дело. Ну и тут вообще речь о том, как запускать бомжекванты, но чтобы они просто за счёт внятного эмбеддинга были по весу как, например, Q4_K_S, а по качеству как Q4_K_M.
Аноним 06/01/26 Втр 03:21:48 1480337 7
Посоветуйте промпт
Аноним 06/01/26 Втр 03:24:34 1480338 8
>>1480109 →
> IQ-кванты сами по себе медленнее обычных.
Потратил несколько часов, добился 5.5 токенов в секунду на i1-IQ4_XS и тех же 3 на Q4_K_S. Понял, что процессор стоило обновить ещё очень давно. Еще через пару часов скачается IQ4_XS - надеюсь хоть с ним и будут те самые 8 токенов.
Аноним 06/01/26 Втр 03:29:52 1480340 9
>>1480338
>5.5 токенов в секунду на i1-IQ4_XS
>3 на Q4_K_S
>>IQ-кванты сами по себе медленнее обычных

>5.5 токенов в секунду на i1-IQ4_XS
>IQ4_XS - надеюсь хоть с ним и будут те самые 8 токенов

Тред полон глупеньких 8б, которые только и годятся, чтобы слушать хозяина и поддакивать "ты меня ебёшь".
Аноним 06/01/26 Втр 03:37:32 1480343 10
>>1480327
> кидает оом после свайпа
Вместо обработки ошибки жоры там длинный лог куды? Поскидывай еще немного слоев, победа близка.
>>1480335
> влияние на метрики или на ощущение "на глаз" действительно заметное
Если измерять по правильной методике из сауспарка то и хуй длинный получится. Тем не менее, посмотреть на результаты более менее релевентных сравнений разного влияния интересно, продолжай.
>>1480337
Отыгрывай пигмалиона 6б. Я тебя ебу.
Аноним 06/01/26 Втр 03:38:45 1480344 11
изображение.png 147Кб, 1219x705
1219x705
>>1480338
>Еще через пару часов скачается IQ4_XS
Если хочешь поэкспериментировать - скачай оригинал или gguf в fp16 один раз, и пробуй разное.
Там команда конвертации уровня llama-quantize.exe <кванты> <входной файл> <выходной файл>, конвертируется по слоям и быстро, даже на старом поколении. Ставлю рарку, что быстрее часа будет.
Аноним 06/01/26 Втр 03:59:07 1480346 12
Аноним 06/01/26 Втр 04:11:25 1480349 13
На чубе блять миллион карточек и все какое то дерьмо, это шутка?
Может есть популярные авторы которые хоть знают как их делать, чтоб я по их странице уже карточку выбрал?
Ещё, хочу отыграть монарха, а как такую карточку загуглить хз, очевидно такого тэга нет
Аноним 06/01/26 Втр 04:16:50 1480350 14
>>1480349
Ещё мне реально интересно корпы даже из самой хуевой карточки сделают конфетку или даже там это важно?
Аноним 06/01/26 Втр 04:18:35 1480351 15
>>1480350
Потому что иначе я не могу объяснить тонну карточек закинутых в чатгпт
Аноним 06/01/26 Втр 04:19:47 1480352 16
>>1480349
Лучше сам себе делай, не прогадаешь.
>>1480350
По разному можно понять что такое "самая хуевая" карточка. Может даже хуже сделать.
Аноним 06/01/26 Втр 04:36:02 1480355 17
изображение.png 170Кб, 685x755
685x755
Подождите. Вы же писали тут три треда назад, что лама картинки не поддерживает...

Так а это. А хули мне тогда прямо сейчас не посадить локалку играть в игру компьютерную или ещё что-то учудить?
Аноним 06/01/26 Втр 04:41:35 1480357 18
Аноним 06/01/26 Втр 05:14:13 1480359 19
image.png 31Кб, 819x181
819x181
Обожаю всякие васянские сборки на мистраль. Ты думаешь там только глинты и слоп, но нет, там всегда есть что-то еще, чего ты никогда не ожидаешь, пока оно не появится после проебанного eos-токена.
Аноним 06/01/26 Втр 05:42:06 1480368 20
Выгорельщики, вы в курсе вообще что это самое разнообразное занятие в вашей жалкой жизни?
Отыгрывали ли вы мексиканский картель крича МЕРДА МЕРДА ПУТА МЕРДА вырезая сердце на камеру? А вводили ли вы потом в этот же сюжет девочку волшебницу мадоку которая спасает ваших жертв? Подставьте ещё десяток развилок которых нет нигде и не будет, ни в играх, ни в книгах, ни в даже аниме, а там дохуя всякого трэша
Аноним 06/01/26 Втр 05:54:01 1480369 21
image.png 111Кб, 536x1238
536x1238
У соларов бенчмакс вышел
Аноним 06/01/26 Втр 06:26:27 1480373 22
GenericFantasy.png 625Кб, 950x1033
950x1033
Genericporn1.png 634Кб, 919x988
919x988
Genericporn2.png 563Кб, 905x975
905x975
Палю хайден гем. Ладно, нихуя.
https://huggingface.co/MiniMaxAI/MiniMax-M2.1
Вумная, ага блять, быстрая - но тут спору нет, реально шустрая и контекст легкий. Но нихуя не для РП. Датасет жиденький. Тотальный дженерик. При намеках на сисик и писик уходит в аэймсефети модель ко ко ко.
А так.. В РП уровень мысрали, а то и хуже.
Аноним 06/01/26 Втр 06:32:01 1480375 23
image 15Кб, 381x144
381x144
>>1480344
>скачай оригинал или gguf в fp16 один раз
Еще бы не оригинал скачать получилось...
Аноним 06/01/26 Втр 07:23:26 1480385 24
>>1480373
Я не знаю что нужно чтобы побить эир, даже сами заи не знают, иначе бы не отмалчивались на 300 залайканный пост.
У нас была ллама, гпт, линг, некс, солар и все кратно хуже эира
Аноним 06/01/26 Втр 07:26:03 1480388 25
>>1480349
Заебал, зачем тебе карта монарха если ты в таверне, в своей собственной карте указываешь свою роль и играешь на сторителлере. Вместе с лорбуком и авторс нотами можно отыгрывать вообще что угодно.

https://chub.ai/characters/aleteian/storyteller-124d69a2f4aa
Аноним 06/01/26 Втр 08:27:05 1480411 26
>>1480286
кто отрицает базу треда будет обречён возвращаться к ней вновь и вновь

>>1480311
этого двачую, остальным соболезную.

базашиз
Аноним 06/01/26 Втр 08:41:54 1480415 27
>>1480385
>солар и все кратно хуже эира
Уже протестировал?
А то тут >>1480369 перемога вроде.
Аноним 06/01/26 Втр 08:45:51 1480417 28
>>1480335
>Даже если мне получится всего на 0.2% сократить потребление памяти при том же качестве со своей позиции без особых навыков и ресурсов - это большое дело.
C одной стороны, любое улучшение это благо, с другой... 0,2% мало что решает.
>>1480344
>команда конвертации уровня llama-quantize.exe <кванты> <входной файл> <выходной файл>,
Сложное.
>>1480369
Соснули по всем фронтам. Зато опенсорс!
>>1480385
>300 залайканный пост
Ух бля, ну всё, это бы заставило ответить даже Трампа!
Аноним 06/01/26 Втр 08:53:32 1480418 29
>>1480369
не перестаю удивляться насколько гопота хорош даже в ссаном FP4 кванте
Аноним 06/01/26 Втр 09:04:14 1480420 30
>>1480418
Был бы он так же хорош в рп...
Аноним 06/01/26 Втр 09:06:55 1480421 31
Неделя нового года
Тишина
Это конец
Аноним 06/01/26 Втр 09:07:38 1480422 32
>>1480355
Да, в ui eva автор прикрутил
управление клавой с мышью.
Аноним 06/01/26 Втр 09:08:21 1480423 33
Аноним 06/01/26 Втр 09:09:45 1480426 34
Аноним 06/01/26 Втр 09:24:49 1480428 35
>>1480418
Круче жирноквена для многих задач. Рили ахуенный релиз был
Аноним 06/01/26 Втр 09:53:57 1480437 36
Аноним 06/01/26 Втр 09:55:43 1480438 37
Аноны какая лучшая модель для перевода с инглиша? Есть ли что то на уровне хотя бы диипла?
Аноним 06/01/26 Втр 09:56:12 1480439 38
>leave your answer empty.
Не отвечает на сообщение. Не знал что так можно.
Аноним 06/01/26 Втр 10:08:31 1480443 39
>>1480438
Gemma3 27B хороша, насчёт диипла не знаю, не юзал.
Аноним 06/01/26 Втр 10:11:36 1480445 40
>>1480443
>Gemma3 27B хороша
Это не для нище пк, нужно что то поприземленней.
Аноним 06/01/26 Втр 10:19:01 1480450 41
>>1480445
тогда надо было спрашивать "Аноны какая лучшая модель для перевода с инглиша для моего нище пк: <характеристики>"
Аноним 06/01/26 Втр 10:27:45 1480453 42
>>1480438
>Есть ли что то на уровне хотя бы диипла?
Любая модель с хорошим русским будет лучше дипла:
Гемма 4б
Гемма 12б
Гемма 27б
Квен 30б-а3б
Квен 80б-а3б

Чтобы определить пойдет ли модель на твоём нищепека, смотри сколько она весит в 4 кванте: это должно помещаться во врам+рам. Например, гемма 27б в Q4_K_XL от анслота весит 16.8гб, т.е. если у тебя 1050ти 4гб и 16гб озу, то гемма влезет. Просто будет не очень быстро работать. Хочешь быстро - тогда Квен 30б-а3б, но он поглупее будет не сильно. Для квена лучше выбирать варианты с ризонингом.
Аноним 06/01/26 Втр 11:00:29 1480458 43
>>1478926 →
>>1478927 →
злые вы крякнуться

>>1479031 →
Спасибо.
А из РФ чтоли никаких сервисов нет, чтобы без крипты?

>>1480445
>поприземленней
12B, или даже их типа-мое на 2х4B
Аноним 06/01/26 Втр 11:05:32 1480460 44
>>1480458
>из РФ
>без крипты
Со своей карты оплачивать чтобы рпшить с каничками на потеху товарищу майору - вот это приватно, ведь все свои.
Аноним 06/01/26 Втр 11:26:03 1480465 45
>>1480267 (OP)
Какие модели сейчас используют для программирования? Чёто квантованная модель оказалась не очень. 8ГБайтная ещё и выгружается в swap хотя у меня 16ГБ оперативы, видюхи нет, на процессоре. Более сложные проги выдаёт с ошибками компиляции. Онлайновый deepseek пока без ошибок, но там посох знает какая огромная модель.
Аноним 06/01/26 Втр 11:30:20 1480467 46
>>1480465
>видюхи нет
Нет видюхи- нет моделей.
Аноним 06/01/26 Втр 11:38:32 1480469 47
>>1480465
Используй апи. Не мучай себя, не трать время.
Аноним 06/01/26 Втр 12:22:52 1480503 48
15efe6d405216b8[...].jpg 78Кб, 1080x806
1080x806
ee143fbe8f24641[...].jpg 75Кб, 1080x777
1080x777
>>1480267 (OP)
> Tencent выложила в публичный доступ две новые модели машинного перевода — HY‑MT1.5-1.8B и HY‑MT1.5-7B. И если младшая модель почти сразу взлетела на первое место в трендах Hugging Face, то старшая — это серьёзная заявка на то, чтобы стать новой опенсорс‑SOTA в своей нише.
> HY‑MT1.5-1.8B — модель оптимизирована для потребительского железа, занимает около 1 ГБ памяти и демонстрирует впечатляющую скорость: 0,18 с задержки на генерацию 50 токенов. Как утверждают разработчики, она не просто быстрая, но и по качеству превосходит многие мейнстримные коммерческие API. Достигается это за счёт продвинутой дистилляции, когда компактная модель учится, подражая поведению более крупных и мощных собратьев.
> HY‑MT1.5-7B — это тяжелая артиллерия для облака. Её производительность уже сравнима с 90-м процентилем таких закрытых гигантов, как Gemini 3.0 Pro, что открывает дорогу для создания высококлассных сервисов на открытом коде.

подробнее: https://habr.com/ru/companies/bothub/news/983076/
скачать модельки (в т.ч. GGUF): https://huggingface.co/collections/tencent/hy-mt15
Аноним 06/01/26 Втр 12:27:05 1480506 49
image 129Кб, 618x618
618x618
>>1480503
>7B — это тяжелая артиллерия для облака
Аноним 06/01/26 Втр 12:35:54 1480515 50
>>1480503
>Tencent выложила в публичный доступ две новые модели машинного перевода
Значит пора на них кумить
Аноним 06/01/26 Втр 12:47:28 1480535 51
>HY-MT1.5-7B-Q4_K_M.gguf
The predawn light bleeds like liquid gold over Erantel’s domes and arches. A cool breeze, heavy with the cloying sweetness of saffron and the sharp tang of citrus, snakes through the meticulously clean streets. Below, the city stirs – not with the chaotic clamor of other capitals, but with the quiet hum of a perfectly tuned engine. Shop shutters rise in unison. Imperial guards patrol in precise formations, their polished armor catching the first rays. There are no raised voices, no arguments. Only the soft scrape of brooms on flawless cobblestones and the distant chime of temple bells. Order. Predictability. Control. The air itself feels thick with it. Yet… beneath the gleaming surface, in the shadowed alleys and behind drawn curtains, something restless shifts. A sigh trapped in a gilded cage.

Inside the Obsidian Citadel, the Imperial Throne Room:

Silence hangs heavier here than the tapestries depicting the Empire’s glorious expansion. High, arched windows of stained glass cast fragmented patterns across the polished black marble floor. Simon's throne – a monolith of dark ironwood and cold steel – sits atop a dais, commanding the vast space. Below, bathed in a shaft of cold morning light filtering through a window depicting a stern-faced goddess of justice, stand three figures. Their postures are rigidly correct, eyes carefully lowered. The only sound is the soft click-click-click of Chancellor Vorlag’s abacus beads as the elderly dwarf meticulously tallies the previous day’s grain yields from the southern provinces. His gnarled fingers move with machine-like efficiency.

To his right stands Ambassador Elara Vysara of the Elven Kingdom of Elfina. Her silver hair is bound in an intricate, severe knot, her expression as smooth and unreadable as polished Adanhan wood. She radiates an aura of cool disdain, her gaze fixed on a point just above Simon's left shoulder. Her latest petition regarding the "exorbitant" tariffs on Adanhan timber lies unopened on a nearby obsidian plinth. She hasn't mentioned it. She knows better than to press.

To Vorlag’s left, Ambassador Kaelen Thorne of the Ramihhid Sultanate offers a stark contrast. His dark skin seems to drink the light, his robes a cascade of deep crimson silk that whispers with every subtle shift. A faint, enticing aroma of honey and cardamom clings to him, a scent both exotic and deliberately provocative in this sterile space. A small, exquisite box of crystallized fruits rests on his open palm – a calculated offering, or perhaps a subtle taunt aimed at the Elf beside him? His smile is practiced, deferential, yet his dark eyes hold a flicker of sharp intelligence that misses nothing.

Vorlag finally stops clicking. He clears his throat, a sound like gravel shifting. "The southern granaries report a surplus, Your Radiance. Efficiency remains at ninety-eight point seven percent. Minor variance attributed to localized weather patterns within acceptable parameters." His voice is dry, factual. Numbers. Always numbers. Safe. Predictable. The only truth worth trusting in this den of snakes and silk.

Before either ambassador can speak, the heavy bronze doors at the far end of the hall groan open. Captain Rennick of the Dawn Patrol strides in, his usually immaculate crimson and obsidian armor marred by dust and… is that blood spatter on his vambrace? He moves with the controlled urgency of a man bearing ill tidings he dare not delay. He stops precisely ten paces from the dais, drops to one knee, fist clenched over his heart. The metallic clank echoes sharply.

"Your Radiance," Rennick's voice is tight, stripped of its usual parade-ground bark. He doesn't raise his eyes. "A report from the Whisperwind Pass. Patrol encountered… resistance."

A beat of heavy silence stretches. Vorlag’s knuckles whiten on his abacus. Elara’s perfect eyebrow twitches almost imperceptibly. Kaelen’s smile remains fixed, but the hand holding the sweet box tenses. High above, unseen in the shadowed vaults of the ceiling, a marble gargoyle’s eyes seem to gleam faintly. Resistance? Here? In the Ironhold's heartland? This… complicates the grain reports.

The air in the throne room crackles, thick with unspoken questions. The perfect machine has encountered its first, tiny grain of sand. The Living Aegis gazes down from the throne. What disruption dares mar the Empire's flawless surface? The answer, Captain Rennick waits to deliver, trembling only internally. The dawn’s golden light feels suddenly cold. A single drop of thick, unnatural blood detaches from Rennick’s vambrace and strikes the obsidian floor.

Предрассветный свет, похожий на жидкое золото, рассеивается по куполам и аркам города Эрантел. Прохладный ветерок, наполненный ароматом шафрана и цитрусов, пронизывает аккуратно ухоженные улицы. Внизу город оживает — но не с хаотичным шумом других столиц, а с тихим гулом идеально настроенных механизмов. Щиты магазинов единым движением поднимаются; имперские стражи патрулируют строгими формациями, их отполированные доспехи отражают первые лучи света. Нет громких криков, нет споров — только тихий шорох метел по безупречно чистым булыжникам и далекий звон храмовых колоколов. Порядок, предсказуемость, контроль… Воздух кажется насыщенным этими качествами. Но… под блестящей поверхностью, в темных переулках и за занавесками что-то беспокойно движется… Вздох, застрявший в золоченной клетке…
Внутри Императорского дворца:
Здесь тишина кажется ещё более густой, чем ткани настенных гобеленов, изображающих великолепие империи. Высокие витражные окна рассеивают разрозненные световые узоры по полу из полированного черного мрамора. Трон Саймона — монолит из темного дерева и холодной стали — возвышается на возвышении, охватывая взглядом весь простор зала. Внизу, освещенные прохладным утренним светом, стоят три фигуры; их позы неподвижны, взгляды скрыты. Единственный звук — тихий стук бусин абакуса канцлера Ворлага; пожилой гном тщательно подсчитывает объем зерновых урожаев с южных провинций. Его искривленные пальцы двигаются с механической точностью.
Справа от него стоит посол Элара Висара из эльфийского королевства Эльфина; её серебристые волосы собраны в сложный узел, выражение лица непроницаемо, как полированное дерево Аданхан. Она излучает холодное презрение; её взгляд устремлен в точку над левым плечом Саймона. Её последняя петиция о «чрезмерных» тарифах на древесину Аданхана лежит нераскрытой на ближайшем обсидиановом постаменте… Она не упомянула об этом; она знает, что не стоит настаивать.
Слева от Ворлага стоит посол Кэлен Торн из султаната Рамиххид; его темная кожа, кажется, поглощает свет, а одежда — это волна темно-красного шелка, шелестящего при каждом движении. От него исходит легкий аромат меда и кардамона; этот запах кажется экзотичным и намеренно провокационным в этом стерильном пространстве. На его открытой ладони лежит изящная коробочка с кристаллизованными фруктами — это рассчитанный подарок или легкая дерзость в адрес стоящей рядом эльфийки? Его улыбка вежлива и уважительна, но в его темных глазах сквозит острый ум, который ничего не упускает.
Наконец Ворлаг прекращает подсчеты. Он откашлявается — звук похож на шорох гравия. «С южных зерновых складов поступили сообщения о избытке урожая, Ваше Величество. Эффективность работы системы составляет 98,7 процента; незначительные отклонения объясняются местными погодными условиями, но они находятся в приемлемых пределах», — говорит он сухим, безразличным тоном. Числа… Всегда только числа — надежные, предсказуемые… Единственная истина, достойная доверия в этом логове змей и шелка.
Прежде чем кто-либо из послов успеет заговорить, тяжелые бронзовые двери в конце зала с грохотом открываются. Входит капитан Ренник из рассветной патрульной группы; его обычно безупречные красные доспехи покрыты пылью… А на его рукавице не кровь ли? Он движется с сдержанной спешкой человека, несущего плохие новости, которые он не осмеливается задерживать. Он останавливается в десяти шагах от возвышения, опускается на одно колено, сжимает кулак над сердцем… Металлический звук отдается эхом.
«Ваше Величество…» — голос Ренника звучит напряженно, лишенным обычной бравурности. Он не поднимает глаз. «Из прохода „Шепчущий Ветер“ поступило сообщение… Патруль столкнулся с сопротивлением…»
Наступает тяжелая тишина. Костяшки пальцев Ворлага бледнеют на абакусе; бровь Элары едва заметно дергается; улыбка Кэлена остается неподвижной, но рука, держащая коробочку с фруктами, напрягается… Высоко над головами, в темных сводах потолка, глаза мраморного гаргульи кажутся едва заметно мерцающими… Сопротивление? Здесь? В самом сердце Империи? Это… усложняет ситуацию с зерновыми урожаями.
Воздух в тронном зале наполняется невысказанными вопросами… Идеальная машина столкнулась со своей первой мелкой проблемой… Что же может нарушить безупречность империи? Ответ… капитан Ренник ждет, чтобы его сообщить… Его руки дрожат… Золотой свет рассвета вдруг кажется холодным… Одна капля густой, ненатуральной крови отделяется от рукавицы Ренника и падает на обсидиановый пол…
Аноним 06/01/26 Втр 12:59:32 1480549 52
>gemma-3-12b-it-Q4_K_M.gguf
Рассветный свет льется золотым потоком на купола и арки Эрантела. Прохладный бриз, насыщенный приторной сладостью шафрана и резким ароматом цитрусовых, пробирается по безупречно чистым улицам. Внизу город оживает – не хаотичным гулом других столиц, а тихим гулом идеально настроенного двигателя. Щелчки жалюзи магазинов поднимаются одновременно. Имперские стражники маршируют в четких формациях, их отполированные доблести ловят первые лучи. Не слышно ни возвышенных голосов, ни споров. Только мягкий скрип веников о безупречном мощении и далечный перезвон колоколов храма. Порядок. Предсказуемость. Контроль. Воздух сам кажется пропитан этим. Но… под сверкающей поверхностью, в тенистых переулках и за зашторенными окнами, что-то тревожно шевелится. Вздох, запертый в золотой клетке.
Внутри Черного Цитадели, в Имперском Тронном Зале:
Тишина здесь висит тяжелее, чем гобелены, изображающие славное расширение Империи. Высокие, арочные окна из витражного стекла отбрасывают фрагментированные узоры на отполированный черный мраморный пол. Трон Саймона – монолит из темного железного дерева и холодной стали – возвышается на подиуме, властвуя над огромным пространством. Внизу, озаренные лучом холодного утреннего света, проникающего через окно с изображением суровой богини правосудия, стоят три фигуры. Их осанка безукоризненно прямая, глаза опущены. Единственный звук – мягкое щелчки бусин абакуса канцлера Волага, который тщательно подсчитывает урожай зерна из южных провинций за предыдущий день. Его узловатые пальцы двигаются с машинной эффективностью.
Справа от него стоит посол Элара Висара из Эльфийского Королевства Эльфина. Ее серебряные волосы собраны в сложный, строгий узел, ее выражение лица столь же гладкое и нечитаемое, как отполированное адаханское дерево. Она излучает ауру холодного презрения, ее взгляд прикован к точке чуть выше левого плеча Саймона. Ее последняя петиция относительно "необоснованных" пошлин на адаханское дерево лежит неоткрытой на близлежащем обсидиановом постаменте. Она не упоминает о ней. Она знает, что не стоит давить.
Слева от Волага стоит посол Кайлен Торн из Рамиххидского Султаната – резкий контраст. Его темная кожа, кажется, поглощает свет, его одеяния – каскад глубокого пурпурного шелка, шепчущего при каждом малейшем движении. Ему присущ слабый, манящий аромат меда и кардамона, запах одновременно экзотический и нарочито провокационный в этом стерильном пространстве. На его открытой ладони лежит небольшой изысканный ящик с кристаллизованными фруктами – рассчитанное подношение, или, возможно, тонкий вызов, брошенный эльфийке рядом с ним? Его улыбка отработанная, учтивая, но его темные глаза хранят отблеск острой смекалки, ничего не упускающей.
Волаг наконец прекращает щелкать. Он прокашливается – звук, похожий на сдвигающиеся камни. "Южные зернохранилища сообщают о профиците, Ваше Сиятельство. Эффективность остается на девяноста восьми целых и семи десятых процента. Незначительное отклонение связано с локальными погодными условиями в пределах допустимых параметров." Его голос сухой, фактический. Числа. Всегда числа. Безопасно. Предсказуемо. Единственная правда, которой стоит доверять в этом логове змей и шелка.
Прежде чем успевают высказаться какие-либо из послов, тяжелые бронзовые двери в дальнем конце зала с грохотом открываются. Капитан Ренник из Патруля Рассвета входит, его обычно безупречная броня, багряно-черная, покрыта пылью и… не так ли кровяные брызги на его наплечнике? Он движется с контролируемой срочностью человека, несущего плохие новости, которые он не смеет задерживать. Он останавливается точно в десяти шагах от подиума, опускается на одно колено, сжимает кулак над сердцем. Металлический лязг отчетливо эхом отдается.
"Ваше Сиятельство," – голос Ренника напряжен, лишен обычного парадного рыка. Он не поднимает глаз. "Доклад из Перевала Шепчущего Ветра. Патруль столкнулся… с сопротивлением."
Наступает пауза, наполненная тяжелым молчанием. Пальцы Волага побелели на абакусе. Бровь Элары едва заметно дергается. Улыбка Кайлена остается неизменной, но рука, держащая ящик со сладостями, напрягается. Высоко над головой, в затененных сводах потолка, глаза мраморного горгульи, кажется, слабо блестят. Сопротивление? Здесь? В сердце Железного Удерживания? Это… усложняет отчеты о зерне.
Воздух в тронном зале потрескивает, насыщенный невысказанными вопросами. Идеальная машина столкнулась со своим первым, крошечным зернышком песка. Живой Щит смотрит сверху с трона. Какое потрясение осмелилось омрачить безупречную поверхность Империи? Ответ, капитан Ренник готов сообщить, дрожит лишь внутри. Утренний золотой свет внезапно кажется холодным. Одна капля густой, неестественной крови отделяется от наплечника Ренника и ударяет об обсидиановый пол.
Аноним 06/01/26 Втр 13:53:35 1480583 53
изображение.png 2316Кб, 1425x2874
1425x2874
Аноним 06/01/26 Втр 14:01:13 1480590 54
>>1480465
Квенкодер 480б в целом ничего, по мелочи и для автокомплитов 30а3
>>1480583
Для размера неплохо, меньше художественности, но зато и меньше явных ошибок и искажений как у геммы.
Аноним 06/01/26 Втр 14:08:19 1480598 55
>>1480583
Можно для сравнения взять из книги с ру переводом и сравнивать, ато если не носитель инглиша разницу фиг поймешь где норм.
Аноним 06/01/26 Втр 14:14:09 1480602 56
>>1480583
Ты специально выбрал самые слоповые участки для сравнения?
Аноним 06/01/26 Втр 14:14:42 1480603 57
>>1480583
Фишка же еще в том, что можно отдельно спрашивать по каждой фразе.
Аноним 06/01/26 Втр 14:30:47 1480615 58
>>1480583
Зачем 12b, когда есть 27b?
Аноним 06/01/26 Втр 15:15:14 1480679 59
>>1480615
Зачем 27б когда есть 235б?
Аноним 06/01/26 Втр 15:22:16 1480689 60
>>1480679
Но ведь 357B от zai-org...
Аноним 06/01/26 Втр 15:23:02 1480690 61
>>1480689
Но ведь 671B от deepseek...
Аноним 06/01/26 Втр 15:28:50 1480697 62
IMG4569.jpeg 48Кб, 400x388
400x388
>>1480373
Но с другой стороны, это же аналог гптосс, было бы странно ожидать чего то другого.
Аноним 06/01/26 Втр 15:34:11 1480707 63
Это нормально что эир постоянно галлюцинирует, начинает лупиться, писать хуету? Как с этим бороться?
Аноним 06/01/26 Втр 15:57:17 1480739 64
>>1480707
Заебал набрасывать, неосилятор. Не будет пресета от нюни, смирись, он умер
Аноним 06/01/26 Втр 16:08:24 1480748 65
>>1480739
Да не нужен мне никакой пресет, это как будто не от него вовсе зависит. Не верю я в волшебную таблетку. Главное понять обычное это дело или нет.
Аноним 06/01/26 Втр 16:09:50 1480750 66
>>1480748
Если у тебя хуйня в промте то обычное. Не обессудь но это так. Промт решает очень сильно, Эир к нему чувствителен. Какой систем промт какой шаблон, какая карточка и какие твои вводы, это целая картина и все важно
Аноним 06/01/26 Втр 16:17:26 1480754 67
>>1480679
>>1480689
>>1480690

Пчелs, так-то есть Gemini 3, а вот 235B еще не факт, что лучше Геммы текст переведет, кек. Речь идет о сопоставимых размерах. 12B и 27B полезут в условные 32 Гб общей памяти, а ваши китайские слоны не полезут.
Аноним 06/01/26 Втр 16:20:38 1480758 68
>>1480750
По идее то не должно такого быть, использовал всё рекомендуемое (пресет от geechan для glm), пробовал то, что работало на мистралях, и всё равно частенько начинает бредить. Попробую ещё варианты. Очень нравится как он пишет, понял почему его так в этом треде любят, но иногда приходится несколько свайпов делать.
Аноним 06/01/26 Втр 18:09:09 1480909 69
>>1480758
Пресет от гичан говно. Там шизопромпт.
Аноним 06/01/26 Втр 18:22:53 1480919 70
Господа, снова здравствуйте! Проебал все полимеры, не следил за тредом месяца 4 наверное. Подскажите пожалуйста, что сейчас в тренде под 3090 и 32гб рамки? А то я на геммочке3-девочке 27b для сфв и 24b форготтен-трансгрешне для нсфв до сих пор.

За пресеты - отдельное сердечко, с меня - наверстывание тредов и мб что то полезное привнесу.

(я дибил, не купил 128гб в свое время, "не горит", теперь страдать)
Аноним 06/01/26 Втр 18:41:51 1480942 71
>>1480919
>теперь страдать
Кто ж знал-то. И главное, пузырь помаленьку начинает сдуваться - трансформеры подошли к пределу имхо. А мощности производителей уже переключились. Если схлопнется, то будет доступна куча серверной памяти и сравнительно новые карты. Вот только новых моделей не будет :)
Аноним 06/01/26 Втр 18:48:03 1480947 72
>>1480919
Если заходит gemma, для NSFW можешь попробовать это:
https://huggingface.co/bartowski/Darkhn_G3-27B-Animus-V12.0-Redux-GGUF
Недавно этот тюн появился, на базе новых техник аблитераций походу, т.к. самый вменяемый, IMHO, из того что с геммой делали. Но с русским традиционно для тюнов так себе.

А от мистраля - Локи: https://huggingface.co/bartowski/CrucibleLab_M3.2-24B-Loki-V1.3-GGUF
Это если без русского жить не получается, у него он, пожалуй самый нормальный под это дело из тюнов. Не лучший, но нормальный.

А так - ничего кардинально нового под эти размеры не вышло, только тюны.
Аноним 06/01/26 Втр 18:48:22 1480948 73
>>1480942
>Вот только новых моделей не будет :)
Тааа и хер с ними, 640кб 235б квена хватит на все, лишь бы крутить где было за копейки с хорошим контекстом и квантованием. 32б конечно туповаты, но вот скачка между квеном и гопотой 5.2 телескопического прям не заметно, разве что в зирокодингах.
Аноним 06/01/26 Втр 18:51:46 1480949 74
ну почему год назад я не купил четверть терабайта ddr4 у хуанана пока она на развес в чингчонгии продавалась сууууууууууууууукаааааааааааааа
Аноним 06/01/26 Втр 19:02:57 1480955 75
>>1480947
Гемма была каловой для рп во всех ее тюнах, пока величайший анон не выложил хак сиспромтом, тогда даже (а в других и смысла нет) ванильная красками заиграла. Но если говоришь что файнтюнеры шагнули вперед, заценю, спасибо!

Про Локи, там вроде базовый мистраль поновее трансгрешна, но не самый свежий, жаль, свежий мистраль ванильный говорят сильный очень, думал его уже вовсю кумят. Но все равно заценю обязательно.

Еще когда я ливал из треда, хвалили glm какой то, на 3090 и 64рам запускали, стоит семейные драгоценности ради еще двух плах ддр4 по 16гб закладывать?

Еще раз спасибо за наводки <3
Аноним 06/01/26 Втр 19:58:01 1480982 76
>>1480947
>Это если без русского жить не получается, у него он, пожалуй самый нормальный под это дело из тюнов. Не лучший, но нормальный
Я потестил всякие тюны конкретно под русский и могу сказать, что лучше этого
https://huggingface.co/mradermacher/Cydonia-24B-v4.3-heretic-v2-i1-GGUF
Ничего не встречал. Не лупит, не использует скучный язык как это обычно бывает в мистралетюнах на русском, персонажи самые активные, но не душат. Короче, кто именно на русском эрпэшит, оч советую попробовать. И это всё в дико пожатом IQ3_XS!
Аноним 06/01/26 Втр 20:23:57 1480995 77
>>1480942
>схлопнется
В худшем случае будут плавно допиливать модельки качественными данными и оптимизировать инференс. И модели для кода уже нужны всем.
Ну то есть не схопнется.
Аноним 06/01/26 Втр 21:28:42 1481038 78
>>1480995
>будут плавно допиливать модельки качественными данными
Ага. В сторону кодинга и агентов. Ну и сейфити подтянут на уровень фи4...
Аноним 06/01/26 Втр 22:11:56 1481068 79
>>1480754
Лучше, топ в своем размере и ближайших. Дальше только дипсик, и то там уже особенности стилистики и прочего.
Справедливости ради задача слишком простая даже для мелочи и тем более большой геммы. Там будут отличия в степени использования возможностей языка vs дословный перевод, а выше сравнение уже на уровне субъективизма и вкусовщины.
>>1480942
> трансформеры подошли к пределу
Фраза-детектор.
> будет доступна куча серверной памяти и сравнительно новые карты
Не будет. Случится удар по пользовательскому железу еще больший чем сейчас, ведь в попытках припахать все накупленное будут максимально форсить облачные сервисы. По началу это может показаться вином, ибо будет серьезный демпинг, но как только наберет популярность - поводки будут затянуты на максимум.
Продолжительный малый спрос из-за завышенных цен на рам, а потом "более выгодные облака" приведет к сокращению производства, в итоге все железо будет золотым, а подписки анальными и дорогими.
Аноним 06/01/26 Втр 23:13:29 1481127 80
>>1480919
Обе хороши, магидония больше понравилась.
https://huggingface.co/TheDrummer/Cydonia-24B-v4.3
https://huggingface.co/TheDrummer/Magidonia-24B-v4.3

Мердж двух прошлых моделей (тоже очень неплох)
https://huggingface.co/Casual-Autopsy/Maginum-Cydoms-24B?not-for-all-audiences=true

В отличии от прошлых эта модель более креативна, но из минусов - за такую креативность приходится платить её шлюховатостью:
https://huggingface.co/FlareRebellion/WeirdCompound-v1.7-24b
Аноним 06/01/26 Втр 23:24:46 1481137 81
1.jpg 143Кб, 1280x960
1280x960
2.jpg 295Кб, 960x1280
960x1280
3.jpg 134Кб, 712x731
712x731
4.jpg 25Кб, 650x277
650x277
сап кумач
короч я купил себе 2 v100 32gb, в комплекте был комплект охлада с 2 башнями с кулерами(и 3д хуйня чтоб их повесить) + 2 пластины под воду, 2 PCIE карты для подключения самой борды, 1 PCIE карта для 1 v100 хз зачем, ну и провода
вышло это всё в 130к у шаосюя с вб(анон который советовал его, чаю тебе и низкий тебе поклон), подобный комплект на али висел за 150, также я пытался всех наебать и заказать с тао - мне отказало 3 кабаныча сказали что их карго щас не возит вообще ничего
т.к. бюджет у меня шапка сухарей, решил засунуть в свой старый hp dl380p gen8 - ессно сразу эта хуйня не завелась nvidia-smi показал хуй, как и гопота убеждала меня в том что это не работает, кто бы сомневался блядь
Если кто то захочет такой же хуйнёй страдать, хотя это особого смысла наверно не имеет, в бивисе ctrl+a - появятся чет типа service options - PCI Express 64-bit BAR Support, и если вы на прыщах то в /etc/default/grub - GRUB_CMDLINE_LINUX_DEFAULT="quiet pci=realloc"
Нахуя я это всё задумал? Ну типа Позабыты хлопоты, остановлен бег, вкалывают роботы, а не человек, если логи и метрики будет нормально отслеживать и трактовать то и заебись, а так вон жинка сео текста да картинки пусть генерит
Если вы хотите какие нить тесты провести - нехуй делать, только я пока ньюфаг скажите че там поднять и с какими параметрами, пока я только openwebui + ollama воткнул(и вроде как уже соснул потому что надо vllm ставить чтоб оффлоадить и размазывать по этому некрокалу) и invokeai
Аноним 06/01/26 Втр 23:36:33 1481152 82
>>1481137
> отказало 3 кабаныча сказали что их карго щас не возит
В серую не возят. Только в белую либо как физик экспресс, либо как юрик с доками.
Тех кто возит физик экспресс и САМ выкупает не знаю. Выкупаю всегда сам юанями
Аноним 07/01/26 Срд 00:12:02 1481195 83
1767733921104.jpg 330Кб, 1600x1039
1600x1039
Аноним 07/01/26 Срд 00:12:07 1481196 84
>>1481170
Завтра постараюсь сделать
>>1481193
Мне эта топология больше понравилась, чем отдельные видяшки втыкать, у меня в серверную риг бы не влез
Аноним 07/01/26 Срд 00:23:57 1481201 85
Аноны, такой вопрос. Вот я начал изучать разные инструменты дл яконструирования агентов, mcp, qwen/clause/open/code. Но хочу вот что понять. Нейронка даже получая контекст, через rag, или даже получая задание с контекстом от вышестоящей нейронки всё равно находится в не равных улсовиях с человекам. У неё нет под рукой IDE. Это если бы человек писал код за один раз в пустом блокноте. Может есть какие-то проекты, которые как-то прокидывают не только вопли интерпритатора, но и помощь от LSP IDE?
Аноним 07/01/26 Срд 00:26:45 1481204 86
>>1481068
>ведь в попытках припахать все накупленное будут максимально форсить облачные сервисы
Уже пытались с играми. Гугловская Стадия сдохла, как и почти все остальные.
А всё, сцуко, потому, что физику наебать не получилось. Скорость света, а значит и сигнала в оптике, конечна (причем речь даже не о вакууме - тут она еще медленней), + задержки от самого железа. И внезапно оказывается, что ее достаточно для интерактива без инпут лага - но только если сервер стоит в том же городе, или немного дальше. И ЦОД в каждое село не воткнёшь, чтобы обеспечить качество сервиса. И магистральную оптику тоже.

Тут будет то же самое. Если массово переводить вообще всё на облака - там упрется еще в некоторые ограничения физического типа. Пропускная способность каналов - не резиновая. А требования к ней возрастут кратно от текущих. Причем ведь сетевой канал - это не труба с водой, которую можно заполнять до предела, сколько влазит. Сетевой канал загруженный до предела - это хуёвый по качеству канал.

Кстати, вот вам реальная история на тему: https://www.ibiblio.org/harris/500milemail.html
Выглядит как анекдот. Но таки было.
Аноним 07/01/26 Срд 00:27:57 1481206 87
Да ебаные ковровые, чи шо?
>>1481196
На всякий продублирую - llamacpp в режиме split tensor по сравнению с layers на разных контекстах (пустой, 8к, 32к, 64к, больше если не лень). В идеале на модели, которая помещается и на одну видеокарту чтобы удобно было сравнивать. Остальные настройки можно не трогать, оно по дефолту само пополам распределится.
> эта топология
Ты про плату на пару с нвлинком? Штука действительно удачная.
А по ценам (1005010391017151 + 1005010001341763 + 80мм кулер) х2 + 1005009755765964 кажется что выгоднее выходит.
Аноним 07/01/26 Срд 00:30:30 1481209 88
>>1481196
Но вообще интересно, даст ли выигрыш данная топология. Ждём тестов.
>>1481201
А что это даст? Выдавать компилируемый код они и так умеют (хотя бы тот же квен-кодер большой). А на большее они не способны.
Аноним 07/01/26 Срд 00:37:36 1481213 89
>>1481201
> У неё нет под рукой IDE.
У нее он считай есть - в контексте находится нужный код и инструкции. Нейронка знает и читает язык куда лучше человека, так что ей норм, главное чтобы контекст не был засорен кучей однотипных правок и подобным.
>>1481204
Появится потребность или выгода - возьмутся вновь, сделав выводы и актуализировав. Разумеется начинать будут с самых крупных и густонаселенных районов, но имея лишнее железо могут и до ебеней добраться. Главное что народ начнет пересаживаться и это приведет к печальным результатам.
> Пропускная способность каналов - не резиновая
Также говорили про невозможность массового стриминга видео, проблема решаема.
Офк все это спекуляции для "негативного сценария", но подсадить людей на подписки и лишить альтернативы это очень вожделенный исход для многих.
Аноним 07/01/26 Срд 00:50:41 1481221 90
>>1481213
Анализаторы видять библиотеки и что ты там себе в коде вызываешь. Если библиотека изменилась, что часто на питоне, то анализатор сразу начнет выть, что таких атрибутов, функий и прочего уже нет, давать подсказки. Нейронка же этого не видит и пишет код по старым лекалам.
Аноним 07/01/26 Срд 00:52:53 1481222 91
>>1481213
>подсадить людей на подписки и лишить альтернативы это очень вожделенный исход для многих
Да, вот только подписочные сервисы уже всех заебали. Раньше вестоиду было выгодно платить 9.99 в месяц и иметь доступ к куче контента на всех устройствах. Сейчас никаких кучек за 9.99 нету, потому что крупные студии вместо продажи лицензии условному нетфликсу щас открывают свои сервисы и теперь оплачивать нужно в несколько раз больше чтобы пожрать в несколько раз хуже. Также будет со всеми другими сферами даже если это будет пиздец быстро и не будет никакой задержки.

мимо
Аноним 07/01/26 Срд 01:02:15 1481225 92
image 62Кб, 545x545
545x545
Аноним 07/01/26 Срд 01:16:54 1481235 93
>>1481221
Нейронка очень хорошо это знает и помнит. Решается или обновлением самой нейронки, или указанием ей сначала изучить документацию и код. Даже в быстроразвивающемся мл с кучей частых изменений это не стоит остро, ерунда.
>>1481222
Ну да, раньше можно было купить нетфликс, да еще шарить его семье-друзьям. А сейчас нужно иметь с десяток недешевых подписок чтобы изредка получить нужный контент. Собственно к подобной деградации все в конце и придет, только альтернативы в виде удобных пиратов не будет. К слову о пиратах - пиратить игорь и прочее тоже не получится, лол.
Аноним 07/01/26 Срд 01:58:13 1481250 94
>>1481235
>Нейронка очень хорошо это знает и помнит.
Хуйня. Увидите, как эту фичу реализуюст ещё. Я вот что подумал, можно же самому попробовать что-то такое слепить в рамках агентов кодомакак. Скачем берем нейронку архитектора, она получает от меня крупное задание, контекст кода, через качественно сделанный rag. Шллет задачу более дешевой, но быстрой llm кодомакаке что-то там переписать в каких-то моих модулях. (быстрая llm получает промпт, контекст и делает работу, отсылает это архитектору. До этого момента я описал нынешние claude-code и аналоги.
А вот далее архитектор должен получить код и высеры от анализатора и уже на основе этого анализировать нужно ли переделлывать или нет. Идеальная же хуйня совместить детерминированные инструменты и умные, но не предсказуемые llm. Кароче буду тестировать, через какие нибудь свои mcp это подцеплять.
Аноним 07/01/26 Срд 02:40:47 1481267 95
Я ошибся, это не v100 добавила т/с в GLM, а новый релиз жоры. Неплохо так бустануло, с 7.7 до 10.7. Все же там не только ломать умеют
Аноним 07/01/26 Срд 03:12:15 1481272 96
>>1481267
Звучит как пиздеж. Снова.
Аноним 07/01/26 Срд 03:14:11 1481273 97
>>1481250
Что реализуют? Какой-то поток сознания вместо конкретики по теме изменения библиотек, или формулировки что должно быть. Все это уже есть, только без вредных излишеств и переусложнений. Проверка кода присутствует в виде запуска или вызова этой самой проверки.
Аноним 07/01/26 Срд 04:13:05 1481285 98
1000018534.jpg 40Кб, 1523x550
1523x550
Аноним 07/01/26 Срд 04:29:08 1481289 99
Ровно неделя прошла
Казалось бы, должна быть гонка, кто первый выпустит модель в новом году и завоюет внимание
Но мы видим лишь пустоту
Это действительно всё
Я вижу пол года впереди без единой достойной модели
Аноним 07/01/26 Срд 04:32:01 1481290 100
>>1481289
Ага, да, делать нехуй кроме как работать в январе
Аноним 07/01/26 Срд 04:35:21 1481292 101
>>1480919
>32гб рамки?
https://huggingface.co/TheDrummer/Magidonia-24B-v4.3 - кум льется рекой, крайне развратно. Из недостатков - при виде хуя ЛЮБОЙ персонаж превращается в шлюху и не пытается сопротивляться, только если жесткой не пропишешь конкретные действия. Если идёшь в бордель на еблю - это топ.
https://huggingface.co/zerofata/MS3.2-PaintedFantasy-Visage-v4-34B - rкум льется так же рекой, но более драматичнее. Недостаток тот же. Если идёшь в бордель на еблю с эльфами - это топ.
https://huggingface.co/CrucibleLab/M3.2-24B-Loki-V1.3 - более быстрый и тупенький вариант. Главный недостаток тот же. Если нужно быстро передернуть - это твой выбор.
https://huggingface.co/zerofata/MS3.2-PaintedFantasy-v3-24B - мой любимый лоботомит. Старается держать заданный образ персонажа и не превращает его в хорни суку при слабом запахе хуя. Кум так же льется рекой. Идеальный выбор, когда нужно, что бы персонаж не сразу на хер прыгал, а с прелюдией.
Сразу скажу, катаю на английском языке. Что там на родном и могучем - хз.
ГЛМ-эйр - тупо мем этого треда, полное говнище, аналог фингербокса. Не ведись.
Аноним 07/01/26 Срд 04:55:31 1481293 102
>>1481292
>ГЛМ-эйр - тупо мем этого треда, полное говнище, аналог фингербокса. Не ведись.
Вот ты мне скажи зачем. Зачем ты пиздишь. Вот нахуя. Чтобы что? Он сложнее мистрали, так как доебчивый до промта и оформления карточек.
Но называть малыху фингербоксом.
Чую наброс жирный делаешь ты, охуевшая ты блядина.
Аноним 07/01/26 Срд 05:01:27 1481295 103
>>1481292
Поддержу, эир бездушный кал для кода, не более.
Мистраль всё ещё лучший выбор для ерп не смотря на все проблемы
>>1481293
> ой вы не поняли он просто сложнее
Да и нахуй его, пусть сам в себе разбирается пока я с эльфиками кумлю
Аноним 07/01/26 Срд 05:03:13 1481296 104
>>1481295
>Да и нахуй его, пусть сам в себе разбирается пока я с эльфиками кумлю
Спору нет. С ним надо поебаться, чтобы он начал выдавать кино в своих размерах. Тут вопрос - тебе РП или дрочить.
Я вот до сих пор как побитая шлюха возвращаюсь к 235му квену, который меня газлайтит и унижает. Но хоспаде - как он пишет, как он чувствует сцену.
Аноним 07/01/26 Срд 05:05:13 1481297 105
>>1481295
А квен побольше 235b или поменьше 80b лучше этих тюнов мистрали? Большой glm 4.6 4.7 зацензурили на уровне геминище нормальный же вроде, нет?
Аноним 07/01/26 Срд 05:07:38 1481298 106
>>1481297
>квен побольше 235b
Тут всё зависит от того насколько ты любишь страдания. Но да. Он лучше, он банально больше. В нем жирнее датасет. Он умеет в РП практически без коробки, но он просто мразь, которая доведет тебя до суицида.
>же вроде, нет?
Ну так и используй большой ГЛМ, нахуй тебе квен?
Аноним 07/01/26 Срд 06:23:08 1481312 107
>>1481285
Я не уверен, что именно это повлияло, потому что нвидиа поцики, по-видимому, делали оптимизоны под блеквеллы и dgx spark. У меня нет в наличии ни того, ни другого. Но как минимум апнулся RPC, потому что там минорная версия выше.
Я лично гоняю сборку с adaptive-p сейчас, попутно проверяю этот чудо-семплер. Пока непонятно, но хуже не делает вроде бы.
Аноним 07/01/26 Срд 07:21:11 1481323 108
>>1480460
>рпшить с каничками
У кого и что болит...
Аноним 07/01/26 Срд 07:38:35 1481329 109
>>1481292
>ГЛМ-эйр - тупо мем этого треда, полное говнище, аналог фингербокса. Не ведись
Жирно.

>>1481323
Что ты задумал? На том свете тебе всё зачтётся, запомни.
Аноним 07/01/26 Срд 07:38:43 1481330 110
o5et5j.mp4 2068Кб, 960x512, 00:00:04
960x512
Кто любит пердолиться с промптами и ПРЕСЕТИКАМИ вам в видео тред, там сора2 дома вышла, но нужно раскрыть, сделать пресетик и не делиться
Вы же любите кушать кал с умным видом С ЗАНОСЧИВЫМ ЕБАЛОМ ЗНАТОКА
Аноним 07/01/26 Срд 08:22:10 1481347 111
>>1481330
>Вы же любите кушать кал с умным видом С ЗАНОСЧИВЫМ ЕБАЛОМ ЗНАТОКА
Да как ты заебал. Ну с чем еше не поделился. Пресеты на модели все есть. батники есть. Я только неосиляторов в жопу не целовал.
Нет никакого секретного промта, который раскроет модель по новому. Ну нет. не выдаст модель сверх того чему обучена. Все современные модели работают на default плюс минус всякие rep pen по вкусу. Есть чатГПТ и кит чтобы помочь с самими промтами.
Нет на ГЛМ никакого секретного способа справиться с повторением, кроме старого способа говно зашло=говно вышло.
Нет никаких волшебных OOC префилов что дадут тебе кино.
Нет никаких СВЕРХСЕКРЕТНЫХ форматов карточек.
Он блять простой, как квадрат :
<description>
<appearance>
<personality>
И всё в таком духе.
Хочешь чтобы модель была мрачной, мрачнотой. Ну добеавь ты в таверне в Author's Note (Слева внизу у тебя три полоски АДИДАС КРОСОВКИ.. сорян, что то меня понесло) что у тебя тут ДАРК ФЭНТАЗИ И МРАЧНАЯ ТЬМА МРАЧНА. Если у тебя мистраль с её ебовым промтпроцессингом. Используй лорбуки, нет - забей на них хуй.
Аноним 07/01/26 Срд 08:45:30 1481351 112
>>1481347
Мой пост как раз про то что никакого пресета нет, если модель кал то она кал и пердолить её только с ума сходить
Аноним 07/01/26 Срд 08:47:36 1481352 113
image.png 419Кб, 720x405
720x405
Нашёл пресет на глм эир ребят
Аноним 07/01/26 Срд 08:49:55 1481354 114
>>1481250
Короче, подумал тут... можно короче взять кружку и запаять ей верх. Ну чтобы жидкость не проливалась да. Ну а днище можно короче наоборот распаять, чтобы пить можно было. Удобно ведь будет правда? И че никто раньше не додумался? Короче, буду тестировать.
Аноним 07/01/26 Срд 08:55:45 1481358 115
изображение.png 35Кб, 634x320
634x320
>>1481137
Я именно про эту сомнительную штуку с nvlnk пытался найти инфу.

Найди пожалуйста модель на 33-60 ГБ, чтобы она влезала только на две карточки сразу - и сравни какая скорость с nvlink и с программно выключенным nvlink. Вот эти два режима со скриншота.
Если в pipeline split я ещё верю, на одну "прокрутку" через трансформер только в одном месте передать условный мегабайт текущих значений активации, то вот в tensor split так что прям при расчёте слоя обмен идёт - уже как-то не очень.
Аноним 07/01/26 Срд 09:00:12 1481361 116
>>1481329
>Что ты задумал?
Потестить большие модели без фильтров апи/веб морд.

В впрочем толку с того, пока пузырь не лопнет.
Аноним 07/01/26 Срд 09:01:45 1481364 117
>>1481352
У пиксельдрейн-анона? Там вроде как раз нюневый.
Аноним 07/01/26 Срд 09:07:44 1481366 118
>>1481137
Ну и странно что на али за 150 вышло.
80 на V100, сдвоенный адаптер есть за 20, разветлитель с проводами за 9, две пары радиатор+башня 16 - вроде как 125. Не знаю только что такой пластины под воду и 3д хуйня.
А ещё был лот, где V100 по 30к, а не по 40к. Ну, раньше, если ты заказывал месяц назад, до нового года был.
Аноним 07/01/26 Срд 09:39:05 1481392 119
>>1481267
какая версия релиза?
Аноним 07/01/26 Срд 09:44:59 1481397 120
>>1481289
Оваридашиз (один из) отметился. Не волнуйся, мы тебя не забыли.
Аноним 07/01/26 Срд 10:21:27 1481428 121
image.png 29Кб, 808x276
808x276
image.png 21Кб, 515x239
515x239
>>1481366
>разветлитель
Поначалу вроде не особо доставало, но сейчас уже раздражать начинает. Ты же специально, да? Ты же ещё "люникс" пишешь, да? Ты же?
На тебе словарями поисковиками по ебалу и хватит засорять мой датасет неверной орфографией. Я же из-за тебя сам привыкну такое видеть и сам потом могу начать так писать.
Аноним 07/01/26 Срд 10:38:08 1481441 122
Памагити! Аларм!

Короче, ситуация такая:
я анон с p104 (CUDA1) и 3060 12Гб (CUDA0), запускал маленький квенчик и чет решил ради смеха запустить его чисто на p104, вот так:

llama-server.exe --model "Qwen3-30B-A3B-ArliAI-RpR-v4-Fast.Q4_K_S.gguf" -cmoe -c 32768 -ts 0.0,1.0 --threads 20 -ub 4096 -b 4096 --port 8082 --jinja

И он как похерачил на 26 т/с, а на 3060 больше 15 не выдает, что я делаю не так???
Аноним 07/01/26 Срд 11:03:21 1481458 123
>>1481428
>люникс
пингвинятник
Аноним 07/01/26 Срд 11:13:32 1481469 124
>>1481441
>что я делаю не так?
Раскрываешь тайный хитрый план куртки по прогреву гоев и отрицательному апгрейду видеокарточек после слишком уж удачно вышедших паскалей. Специально криво наоптимизировали новые игры, чтобы паскали в них сосали, продали гоям новые говноархитектуры, чтобы потом внезапно "проапгрейдить" их, выпустив снова что-то "прорывное" типа паскалей (когда на старые паскали уже драйверы перестанут выпускать и никто не сможет напрямую сравнить их в новых играх). Не делай так.
Аноним 07/01/26 Срд 11:28:08 1481487 125
>>1481428
>Ты же ещё "люникс" пишешь, да? Ты же?
Верно. С разветвителем я не специально, на ус намотаю.
С люником - это по историческим причинам такое, если тебя раздражает - постараюсь писать на английском. Не могу я на русском иначе написать или произнести, это шутка какая-то, а не ос, чтобы правильно её называть.

Ещё я говорю медлее, вместо медленнее и ставлю неправильно ударение в звонить/звонят или как там это произносится. И мне нравится слово "ихний" - впрочем из этого я буду только слово "ихний" защищать, а от неправильного ударения и говорить медленнее просто пока не получается себя приучить.
Аноним 07/01/26 Срд 11:32:13 1481490 126
image 47Кб, 645x729
645x729
>>1481487
Неудивительно почему ты линукс не осилил.
Аноним 07/01/26 Срд 11:39:32 1481493 127
>>1481487
>медлее
Это странно и никто так не говорит, хотя определённая логика в этом есть. Небольшой намёк на неё. Но всё-таки слишком далеко от текущей языковой нормы, чтобы просто взять и перескочить на такой вариант.
>ихний
>ударение в звонить/звонят
А это очень даже логично и через 50-100 лет вполне имеет шансы стать языковой нормой и попасть в словари. А может и не стать. Рандом Хаотичная система, хуле.
>разветвителем
А это совсем из другой оперы, логики тут никакой на первый взгляд не видно, если только ты не говоришь "ветль" вместо "ветвь". Хотя может я что-то и упускаю.

Можно попробовать дать ллмке поиграться со словами, они же как раз на это и заточены. Будет интересно посмотреть. Но хороших ллмок с русским датасетом нет в природе. У нас же свой путь - спиздить у китайцев и дотюнить за 10 баксов, остальное пустить на распилы и откаты. Простите за политоту.
Аноним 07/01/26 Срд 11:57:59 1481504 128
>>1481352
Кинь ссылку на файлообменник мейлру.
Аноним 07/01/26 Срд 12:10:38 1481513 129
>>1481201
>но и помощь от LSP IDE?
Представляешь, как он заебётся пересчитывать контекст, когда с каждым токеном предложения будут меняться?
>>1481222
>Да, вот только подписочные сервисы уже всех заебали.
Альтернативы больше нет, только пиратство я сам под этим флагом. Так что когда с играми не будет альтернативы, то людям ничего не останется, кроме как продавать анал за доступ к играм.
>>1481273
>Проверка кода присутствует в виде запуска или вызова этой самой проверки.
Как я понял идею того чела, это слишком поздний этап. Ну и если в негронке прописан старый апи, то цикл "нейронка высрала нерабочий код - проверка даёт отлуп - нейронка правит, высирая такой же нерабочий код" может идти вечно.
А так актуальные данные по апи будут в контексте. Впрочем, тут нужно менять саму суть контекста, да и вообще целиком и полностью всё переписывать. Костыли тут будут только мешать, см. пересчёт контекста на каждый токен.
>>1481330
>там сора2 дома вышла
Вот когда будет 2 часа на 8ГБ видяхе, тогда приноси.
>>1481504
Ты ещё скажи скинуть её на доску на мейлру. Ой...
Аноним 07/01/26 Срд 12:19:52 1481521 130
>>1481513
Тебе жалко поделиться? Дармоед.
Аноним 07/01/26 Срд 12:20:05 1481522 131
Аноним 07/01/26 Срд 12:25:12 1481526 132
>>1481522
Амениканизированное говно нет не смотрел. Смотрел наши советские и китайские мультфильмы.
Аноним 07/01/26 Срд 12:25:48 1481527 133
>>1481522
Точно. Я вспомнил в чем смысл шутки. Там же зеркало.
Аноним 07/01/26 Срд 12:32:08 1481536 134
>>1481527
>>1481522
Да похуй что там за шутка. Пресет будет нет?
Аноним 07/01/26 Срд 12:38:54 1481543 135
>>1481441
Решил проверить может это я llamacpp-server не так скомпилил и запустил модельку в kobold'е картина такая же. Аларм!
Проверил 3060 стоит в PCI x16. Куда копать? 3060 наелась что ли? Драйвер один на две карты, CUDA 12.9

По идее 3060 по всем параметрам должна обходить p104-100, что ж такое-то?
Аноним 07/01/26 Срд 12:43:59 1481547 136
>>1481536
Давай я аналогию проведу: ты и есть глм. Начинай разговаривать сам с собой. Сражу скажу, я тебе не помощник, я больше по паническим атакам, злобе и тремору. Так что тут как нибудь сам сходи с ума.
Аноним 07/01/26 Срд 12:45:25 1481550 137
>>1481543
так падажжи, я правильно понял, что ты запускаешь модель весом более 12гб и удивляешься, что на видюхе с 12гб памяти она работает медленнее, чем на видюхе с 24гб?
Аноним 07/01/26 Срд 12:58:48 1481569 138
>>1481550
Ну, ващет p104 это только 8ГБ, а модель MoE, поэтому активные слои как раз таки влезают
Аноним 07/01/26 Срд 13:00:49 1481571 139
>>1481569
сорян с р40 перепутал
Аноним 07/01/26 Срд 13:01:21 1481573 140
>>1481527
Нахуй ты спойлеришь, мудак?
Аноним 07/01/26 Срд 13:10:13 1481576 141
>>1481547
Сам ты глм, гейткипер ебучий. Сказал А говори Б. Слышал такое? Нехуй даже упоминать пресеты если делиться ты ненамерен.
Аноним 07/01/26 Срд 13:41:16 1481592 142
>>1481576
Покажи бумаги, будет пресет.
Аноним 07/01/26 Срд 13:43:40 1481594 143
Аноним 07/01/26 Срд 14:29:02 1481638 144
>>1481323
А с кем еще рпшить?
>>1481330
> сора2 дома
Это чего такое там? Там трахать и генерировать на основе пикчи можно?
>>1481366
2x35к карты, 25к плата - провода - адаптеры или 30к за плату + даблер в единичный х16 слот, 8к радиаторы. На корпус и прочее много остается, но лучше вообще по месту что-то красивое и компактное взять.
>>1481487
> по историческим причинам такое
Таблы или сразу на лечение.
>>1481513
> правит, высирая такой же нерабочий код" может идти вечно
Не, не пойдет. Тут в целом проблема именно косячного кода по причине некорректного написания - редкое событие, и то происходит из-за сильного квантования. Причем сами нейронки это замечают и делают исправление на следующем шаге. Когда же ошибка более высокого уровня - или сразу смекают что вызовы изменились, или считывают вызываемый код или гуглят доки чтобы корректно сделать.
То есть проблемы как таковой не существует, если офк на модели не совсем уг. Гораздо чаще возникают косяки, связанные с неверным планированием или упущением отдельных "мелочей".
Например, стоит задача выделения компоненты сигнала и общей солянки. Последний опущ, который считается эталоном кодинга, в обсуждениях предложит тебе архитектуру, в которой при обучении для разделения компонентов сигнала создается дополнительная тренируемая сетка, которая учится выделять "второй компонент" обучаясь сравнением с условным референсом. А потом дополнительным критерием лосса делается ортогональность результатов основной и вспомогательной компоненты. Все разумно, прием хороший и относительно популярный. Вот только то, что на выходе основной сетки размерность в 2.5 раза ниже, а искусственно акцентированный второй компонент для обучения вспомогательной сетки у нас есть только в оригинальной размерности, он заметит только на этапе написания конечного кода. В итоге пук-среньк-костыли, прямо в коде даталоадера пытается тренировать и pca проектор (хотябы со сглаживанием по батчам чтобы не совсем шиза была), потому что уже зашел слишком далеко и в рамках поставленного задания вернуться в начальный этап для переосмысления не может.
Если регулярно стукать палкой то офк все может, активное участие кожаного вместе с изменением структуры выполнения от линейной на "швейцарский сыр" с регулярной переоценкой в целом проблему решают.
Вот именно такое развитие хотелось бы видеть, а не какую-то шизу с решением несуществующих проблем.
Аноним 07/01/26 Срд 14:31:30 1481641 145
>>1481638
> А с кем еще рпшить?
Каддлиться с добрыми гяру милфочками и вековыми кемономими, конечно.
Аноним 07/01/26 Срд 14:33:29 1481644 146
>>1481641
> Каддлиться
> с вековыми кемономими
Абсолютнейшая база. Просто когда они милые и дрищеватые - это двойне приятно. Даже бубсы пусть будут, главное не слишком большие
Аноним 07/01/26 Срд 14:41:47 1481654 147
>>1481638
>Там трахать и генерировать на основе пикчи можно?
Пикчи есть, трахать нет.
>В итоге пук-среньк-костыли, прямо в коде даталоадера пытается тренировать и pca проектор
Лол, вот это костылищи. А как правильно?
>структуры выполнения "швейцарский сыр"
Мне аж гуглить пришлось.
В общем всё сводится к тому, что без кожаного делать нечего. Забавно, с учётом того, сколько средств всирают на автономных агентов.
>>1481644
>Просто когда они милые и дрищеватые
Ага, знаем ваших милых 800 летних жён самый рофловый перевод названия на моей памяти.
Аноним 07/01/26 Срд 14:54:24 1481667 148
IMG2708.jpeg 116Кб, 700x719
700x719
Создал карточку гиперкуба и ебу теперь его в восьми измерениях.
Пошёл нахуй Евклид. Я теперь многомерный хуеносец.
Аноним 07/01/26 Срд 15:15:50 1481689 149
>>1481654
> Пикчи есть
Уже норм, остальное наличии весов можно заставить. Что за модель?
> А как правильно
Если сохранять подход - или заранее натренировать проектор из второй компоненты и использовать его в качестве дополнительной ступени перед проверкой ортогональности, или им же ужать датасет второй компоненты и делать вспомогательную сетку под сокращенную размерность на выходе. Да даже просто шум будет лучше чем такое, не говоря о перфомансе.
> без кожаного делать нечего
Ну да, оно может самостоятельно сделать простые вещи а дальше уже лишь инструмент. Уже в текущем виде хорошо, экономит много времени и добавляет удобства.
> знаем ваших
Можно еще тысячу+ летнюю королеву кицун из monmusu. Там все в одном, и милая канни и ara-ara гяру по желанию, на чубе и уборщике были карточки.
Аноним 07/01/26 Срд 15:44:23 1481733 150
>>1481292
Эй, мистралеёбы. Что там самое darkest dungeon? Я решил вспомнить былое, позапускал эти тюны.
Но они слишком соевые. На удивление приятно пишут, лол. Мистраль прям выросла на глазах. Она была хуже, я точно помню, ну или меня поломали другие модели уже, что слог мистрали кажется свежим. приходится прям простить чтобы cruel был, но всё хуйня.
Какая моделька будет самая мрачная, мне для истинного despair?
Аноним 07/01/26 Срд 15:50:16 1481741 151
Какая мелкомодель (до 12B) лучше всего переводит с англюсика на русек? А то я попробовал tencent/HY-MT1.5-7B - по бенчам у них все круто, а на деле жиденько.
Аноним 07/01/26 Срд 15:51:39 1481743 152
>>1481733
Forgotten Safeword. Отборный гримдарк дерилий
Аноним 07/01/26 Срд 15:51:57 1481744 153
Аноним 07/01/26 Срд 16:34:35 1481785 154
Почему мы просто не можем получить отличную модель
Без но, скоро починят, 2 больше недели
Почему обязательно должно быть где то насрано
Аноним 07/01/26 Срд 16:42:17 1481788 155
>>1481785
Уже давно получили. Глм 4.5 и Эир. А ты получи хуй в рожу за свой шитпост
Аноним 07/01/26 Срд 16:48:42 1481793 156
1.1.png 33Кб, 839x738
839x738
1.2.png 28Кб, 827x591
827x591
1.3.png 37Кб, 804x889
804x889
1.4.png 39Кб, 803x889
803x889
>>1481206
первые два скрина это лама бенч
пример
/app/llama-bench \
-m /models/Qwen3-30B-A3B-Q4_K_M.gguf \
-p 65536 \
-n 128 \
--n-gpu-layers 999 \
--split-mode row \
--no-warmup
на 131 он не стал запускаться, зафейлился

Вторые 2 это то что ты просил(надеюсь)
Аноним 07/01/26 Срд 17:01:21 1481796 157
image 361Кб, 996x687
996x687
image 227Кб, 994x299
994x299
image 44Кб, 489x514
489x514
image 119Кб, 625x628
625x628
>>1480982
>русский
Стало интересно как выглядит русик на таких маленьких локалках. Оказалось, местами даже интереснее/забавнее англюсика.
А последние два скриншота это сравнение навыков базовой работы с HTML у мистраля и Gemini 2.5 pro...
https://huggingface.co/FlareRebellion/BereavedCompound-v1.0-24b
Аноним 07/01/26 Срд 17:11:47 1481800 158
>>1481788
А я продолжу уныло форсить Квен 235
ХОРОШАЯ ЖЕ МОДЕЛЬ! У МЕНЯ БРАТ ОЖИЛ, КОШКОЖЕНА РИС ПРИНЕСЛА.
Аноним 07/01/26 Срд 17:41:14 1481824 159
1.5.png 35Кб, 804x700
804x700
>>1481358
проверил на 1 не влазит, вот что получилось
Аноним 07/01/26 Срд 17:54:23 1481831 160
1663590883403.png 39Кб, 1329x211
1329x211
>>1481793
>>1481824
Лолчто, а раньше роусплит на жоре ускорял генерацию на малых контекстах даже при небыстром подключении гпу.

Ты немного ерунду затестил. Во всех случаях генерация у тебя или на пустом контексте, или после контекста из той фразы. Промпрпроцессинг же усреднен по всему интервалу (что в целом людям может быть полезно).
Фактическую генерацию в llama-bench задает -d. Просто забей -d 0,8192,32768,65536,131072 и оно само по дефолту сделает на них pp512 tg512, пикрел. А просто --ctx-size в llama-cli, server и прочих - это лишь размер буфера, фактический контекст будет от фразы.

Ну и повтори тогда row с включенным и выключенным nvlink.
Аноним 07/01/26 Срд 17:54:58 1481833 161
>>1481741
>>1480583
Вообще, сказал бы, что Гемма, но по количеству косяков они сопоставимы, как видно. Мелкие модели не лучший выбор. С Геммой 27B сравнения нет. Но я думаю, что старшая Гемма будет лучше.
Аноним 07/01/26 Срд 17:56:17 1481834 162
>>1481831
> Фактическую генерацию
Фактическую глубину контекста, разумеется, фикс.
Аноним 07/01/26 Срд 18:05:40 1481838 163
>>1481526
> Смотрел наши советские и китайские порномультфильмы.
FXD
Аноним 07/01/26 Срд 18:13:50 1481842 164
Аноним 07/01/26 Срд 18:34:05 1481864 165
Аноним 07/01/26 Срд 18:40:16 1481873 166
>>1481292
>>1481744
Я был главный хейтер геммы, так как эта тварь была умницей-ассистентом, но отвратительна и убога в рп. Промт-хак анона (промты чаще всего херня, но этот реально наебунькал геммочку) изменил все и я даже познал дзен на какое то время (поэтому и не купил 128 рамы, сук).
Но потом все таки небогатый на рп, кум и треш датасет ванильной (а другие были поломаны или лоботомиты, синтия у меня вообще гг жестко заабузила и скатилась в луп) геммы начал вылезать, либо бедный скупой текст в интересных моментах, или навязчивый биас ("они жили долго и счастливо и прошли вместе много приключений" ). И я поймал второе откровение - как только чувствую что гемма все, втыкаю мистраль и рп вновь расцветает. Хакнутая промтом Гемма и мистраль вместе дают синергию адовую, аж обои отклеиваются. Гемма задает хороший слог, логичную завязку и основной сюжет, мистраль развивает его и дает мяса.

Жаль конечно что кроме тюнов геммы ("в этот раз оно точно работает!") и тюнов мистраля посвежее ничего не произошло за почти полгода =((

>>1481800
Я плотнейше юзал 235б корпоквен для неРП задач и он охуенен, лучше дипсика и ранней 5й гопоты, и все это заводится на игровом пука без терабайта оперативы. Рп на таком, даже если допустить соевость и бедный датасет как у некрякнутой геммы, дал бы новый экспириенс. Непокупка 4х канального интуля и 128 ддр4 - моя главная нейроошибка года.
Аноним 07/01/26 Срд 18:47:15 1481880 167
1.6.png 111Кб, 1215x542
1215x542
1.7.png 110Кб, 1214x541
1214x541
>>1481831
сделал как ты сказал и намерил такое
1 с nvlink 2 без
Аноним 07/01/26 Срд 18:50:48 1481883 168
>>1481880
Почему куда эррор?
Да, это примерно что нужно. Померь и те модели, и лламу 70 с разной глубиной контекста до куда влезает в разных режимах, все будут благодарны.
Аноним 07/01/26 Срд 19:27:38 1481893 169
>>1481883
ну тип оно на 32 померло, я понял, начал делать как будет готово скину
Аноним 07/01/26 Срд 19:29:45 1481895 170
>>1481873
>Жаль конечно что кроме тюнов геммы ("в этот раз оно точно работает!") и тюнов мистраля посвежее ничего не произошло за почти полгода =((
Из-за этого неиронично думаю слить свой бомжериг и заменить на одну 5090.
Останавливает только факт отсутствия применения 5090й за пределами ии-хрени.
Игрульки либо говно, либо нетребовательны.
Аноним 07/01/26 Срд 19:50:33 1481908 171
>>1481824
Круто, спасибо большое.
Точнее не очень круто, казалось бы при row где на каждом слое пересылки то скорость уж точно должна влиять, особенно при разборе промта, где скрытый слой толстый на десятки мегабайт. Как минимум я ожидал что по латенси прямое соединение карт должно быть точно быстрее, чем через pcie, да ещё только 3.0 (оно, к слову - кидает на процессор, а потом от процессора на вторую карту - или как-то даже по pcie умеет напрямую с карты на карту?).

С другой стороны там скрытое состояние дай бог 20к между слоями, а переслать нужно только половинки в обе стоны. Причём на слоях нормализации будет быстрее продублировать нормализацию, чем пересылать эти жалкие 40 кб, и реально их надо пересылать только после квадратичных слоёв внимания. Ну, даже если там 30 слоёв, то это мегабайт в секунду. Латенси важнее скорости передачи в разы.

А деление по слоям так вообще сказка, теоретически вроде как можно ещё и kv-кеш порезать по слоям, чего вроде как никто не делает.

В общем на хрен тогда эту плату с китайским nvlink на две платы, она стоила до нового года 19к без проводов, а сейчас только за 27к вижу, а два отдельных адаптера по 5к.
Было бы там аппаратная поддержка 8.6 на V100, а не 7.0 - то это окей, ради 10% на более-менее актуальной карточке вроде как хочется, пусть даже только при разборе промта. А так будто бы и смысла нет, если не стоит каких-либо ещё задач кроме инференса LLM, какой-то неросетевой pet-проект или ещё что. С другой стороны там тоже вряд ли нужен nvlink, если всего две карточки, то обучаешь что-то, что точно по масштабу меньше чем даже половина карточки, соответственно и обменивать в прямом времени уже не нужно.
Аноним 07/01/26 Срд 19:51:31 1481909 172
m2-res470p.mp4 2266Кб, 854x470, 00:00:15
854x470
Аноним 07/01/26 Срд 20:04:26 1481914 173
Аноним 07/01/26 Срд 20:13:34 1481930 174
>>1481873
> Непокупка 4х канального интуля и 128 ддр4 - моя главная нейроошибка года
Я запускаю его в состоянии лоботомита на конфиге 16+128ч
И даже при его мизерной скорости (6-7 т/с это медленно, это очень медленно) я все равно бегу к нему как плаксивая девочка. Я вот сейчас погонял кумтюны мистрали, заново.
Спасибо анон за ссылки, кстати. Не пришлось смотреть чем там барабанщик наворотил. Не было у него в моделях этого угара readyart (покойся с миром слоподелатель, пусть тебе там на небе нейротянки расчесывают волосы)
И наконец я смог понятно для себя определить, почему он ебет.
235 квен дает самое главное для РП. Жир повествования.
Вот есть у меня одна из любимых карточек, где в условиях полного БП ты выживаешь с тянкой. Которая не тянка а нёх, но ты об этом не знаешь. И начинается РП с того что к вам в
Квартиру тарабанит я вижевшая, которой собаки хотят оторвать жопу.
На мистралях: хуяк, хуяк, попиздели, перевязали и ПОВАЛИЛИ МОНСТРЫ ДАЖЕ ИЗ ОЧКА, СТЕКЛА БЬЮТСЯ, ПИЗЛА СПАСАЙСЯ КТО МОЖЕТ
На гемме: перевязали тянку в атмосфере НЕДОСКАЗАННОСТИ, потом поговорили в АТМОСФЕРЕ ГНЕТУЩЕЙ ТИШИНЫ, потом или что то случилось, или гемма решила что с тебя хватит и пора спать.
На квене: сначала тянка посмотрит на тебя: «ты чё, ебануьый, давай не будем дверь открывать. Никого нет дома, пошла она нахуй». Ты открываешь дверь, впускаешь. Он будет абзац пасписывать как выживший заебан, как кровь стекает с раны, как она в панике будет что то говорить, что не шпашла, что сбежала и бла бла.
Потом вы её перевяжите. Уложите на диван в гостиной и останетесь с тян в спальне. Потом ты положишь голову на ноги своей нёх-тянке и что то глупое расскажешь, она улыбается и тоже скажет какую то хуйню. А глаза, блять, красные. Ты обосрешься, но ничего не скажешь. Потому что если бы хотела, убила бы. Вы уже год живете. Потом ты просто закрыв глаза уснешь. И промнешься от того что она встанет, что от скажет, выйдет в зал, захлопнув за собой дверь и раздаст а вскрик, хруст костей и плоти и чавканье.

И все это в описаниях, в постоянных сочных описаниях.
И именно это в нем мне и доставило. Нужно быстро пробежать сцену, это не про квен. Тут все персонажи пока не напиздятся на 1.500 токенов, вообще дело с места не сдвинется. Но ты хуяк, подвигал сюжет мистраль и вновь читаешь как очки тянки запотевают от чая, а где то на улице дракон ебет машину в выхлопную трубу.
Ах ну и по моему вообще полный похуизм к порнотексту. Ассистента с его нехочу/небуду надо еще вызвать умудриться.
А ну блять пробовать квен пошли! Марш, марш!
Аноним 07/01/26 Срд 20:17:20 1481933 175
>>1481930
> я вижевшая
Выжившая
> ПИЗЛА СПАСАЙСЯ
Пизда, спасайся
> ебануьый
Ебанутый
> промнешься
Проснешься.
> сюжет мистраль
Мистралью


Слоуфикс.
Аноним 07/01/26 Срд 20:18:52 1481936 176
>>1481930
Да пробовали,
Дружище. И так, и сяк.
Пресетом 99 с грамматикой, и тот
срет под себя. А уж дефолт не работает
И вовсе. Впервые, за многие месяцы пердолинга моделек, постер сдался.
Аноним 07/01/26 Срд 20:24:01 1481938 177
>>1481936
Прав, как никогда — Квен, это такой пиздец,
Который использовать невозможно. Как бы ты ни хотел.

Ибо пишет он, как последний лоботомит. А то есть — вот так.

Ибо у него негативный биас, и даже самую прекрасную сказку он превратит во что-то ужасное. И опять же — никак это не пофиксить, такой датасет!

А уж как он инструкциям следует... Это модель для кода. Была, есть и будет.
Аноним 07/01/26 Срд 20:24:51 1481940 178
>>1481873
В 235 нет сои, наоборот базирован. Есть припезднутость по форматированию, много квенизмов, байасы, но в остальном хорошая девочка. В рп подкупают универсальность и разнообразие, достаточно податлива.
>>1481908
> особенно при разборе промта
> где скрытый слой толстый на десятки мегабайт
Что?
> или как-то даже по pcie умеет напрямую с карты на карту
Умеет но с ограничениями.
> можно ещё и kv-кеш порезать по слоям
Хз что ты под этим подразумеваешь, но в жоре как раз кэш делится между устройствами, причем просто по соотношению -ts, без учета фактического устройства, которому он нужен.
> на хрен тогда эту плату с китайским nvlink на две платы
Главное чтобы были карточки а ее можно докупить в любой момент. Скорее всего с такой кривой реализацией сплита даже там ничего не ускорит и все как ты описал, но стоит дождаться больше адекватных тестов.
Аноним 07/01/26 Срд 20:48:51 1481971 179
>>1481940
Тоже верно. Карточки кончатся, а платы китайцы всегда сделают.
>Хз что ты под этим подразумеваешь
Я сам не до конца понимаю, уже потерял мысль что я имел ввиду, размышляя об этом. Я не уверен, что нужна полная копия кеша на каждом устройстве. Речь не о том, чтобы поделить, и пересылать нужные части каждый раз - а чтобы поделить так, чтобы пересылок дальнейших не было - только обновления.
Очень хочу просто на си код, где запиты тензоры как массивы, и где все формулы в явном виде записаны. Супер не оптимизированном, но супер понятном. Весь код инференса на ллм с объявлением массивов на одном экране можно уместить, если прямо писать всё.
>Что?
Речь о том, сколько у тебя переменных при проходе по слоям, которые не веса слоя. При генерации там смешное число порядка десяти тысяч, генерация по одному токену. При разборе промта там идёт сразу кусок на 512 токенов, например, и переменных участвующих в рссчёте уже 512 раз по несколько тысяч.
Аноним 07/01/26 Срд 20:50:38 1481975 180
>>1480982
Ну кстати да, неплохой русик, чуть снизить темпу до 0.6 пришлось что бы англюсик не проскакивал. Другое дело что после постоянного РП на инглише, на русском кринж ловится.
У меня такой вопрос - есть что-то лучше Magidonia-24B-v4.3 из последних мистрале / гемматюнов для РП на англ? Магидония прям сильно зашла. Еще пробовал WeirdCompound-v1.7 и 1.6. в целом неплохие, но поглупее как-будто. 1.7 у меня по кд бабам члены дописывал и это было никак не исправить, 1.6 норм, но хуже магидонии, как по мне. Может тюны Геммы есть интересные? Normpreserve слабоват в куме относительно вышеупомянутых.
Хотел было >>1480947
Darkhn_G3-27B-Animus-V12 скачать, но там написано: The primary purpose of this model is for creative and roleplaying within the Wings of Fire universe. Какая-то слишком узкоспециализированная, я вообще не ебу что это за вселенная.
Аноним 07/01/26 Срд 20:51:47 1481977 181
>>1480982
>>1481975
Валькирия еще лучше, но надо 48гб видеопамяти.
Аноним 07/01/26 Срд 20:55:51 1481984 182
>>1481977
Валькирию 3bpw можно запустить и на 24гб видеопамяти с 24к Q8 контекста. 3bpw exl3 почти то же самое что IQ4. Тестил. Хуйня, даже ванильный Немотрончик лучше
Аноним 07/01/26 Срд 21:02:10 1481992 183
>>1481984
Я сравниваю валькирию Q6K (конфиг V2J) с магидонией Q8 (релизный 4.3 конфиг). Последняя скатывается в
> ебать наху ЧТО ты сейчасказал
> вот это ЖОПА у нее БЛЯТЬ вот это да
- очень странные паттерны выкрикивания слов капсом и импульсивно-истеричного поведения у любых персонажей

Надо сказать, v2j конфиг валькири тоже этим грешит, но меньше - у драммера какие-то странные датасеты пошли с недавних пор - но в целом она способна слушать инструкции, на которые магидония кладет болт. Для меня это плюс, для кого-то явно не стоит видеопамяти. А как пишет... Ну как проинструктируешь, так и напишет. Заметил, что промпты очень хорошо слушает лишь до определенного размера - как будто есть жесткий порог, после которого 100% уважуха промпта превращается в чтение между строк.
Аноним 07/01/26 Срд 21:11:42 1482004 184
>>1481971
Объем кэша больших моделей на приличном контексте превышает объем врама потребительских карточек если что. Есть слои атеншна, есть кэш для каждого из них, когда они на одном и том же устройстве то и крупных пересылов нет. В режиме тензорпараллелизма он априори поделен - из-за этого для промптпроцессинга требуется некоторая скорость обмена, подключение по вялым шинам будет его замедлять. Плюс на жоре кэш отвязан от блоков, потому можно словить лишние пересылы даже при послойном сплите на мультигпу если блоки модели неоднородные.
Но если используется оффлоад в рам то это все меркнет на фоне стриминга весов.
> сколько у тебя переменных при проходе по слоям
Слои всегда прсирянны, отличаются активации, которые могут идти батчем. Благо если делать все по-человечески большинство операций асинхронны и при достаточной скорости критических путей от задержек не возникает.
Аноним 07/01/26 Срд 21:13:04 1482007 185
> тестил ссаные 3 бита ещё и с квантованным контекстом, хуйня

как называется эта болезнь?
Аноним 07/01/26 Срд 21:18:42 1482016 186
>>1481895
>факт отсутствия применения 5090й за пределами ии-хрени.
Так у рига будто бы применений еще меньше, нейронки урезаны до ллм ±

>>1481930
>гемма решила что с тебя хватит и пора спать.
Как же ты ПРОЧУВСТВОВАЛ гемму. Тут как раз алгоитм: удалить два последних сообщения и подтыкнуть мистраль.

>>1481940
>В 235 нет сои, наоборот базирован.
Да я знаю, я как раз и хотел подчеркнуть что даже будь он сойжаком как гемма, все равно был бы лучше. Очень чувствуется что он просто на порядок умнее всего <50б (не <32б из-за ублюдка-немотрона). Именно этого и хочется в рп, что бы моделька понимала сцену, учитывала предисторию как автор книги, а не красивый пушкинский слог или 99 слопоэвфемизмов для "пизда хлюпает".
Аноним 07/01/26 Срд 21:32:46 1482028 187
culture.jpg 50Кб, 850x478
850x478
>>1481930
> где то на улице дракон ебет машину в выхлопную трубу
Аноним 07/01/26 Срд 21:42:34 1482047 188
>>1481864
сяп

О, boner. Я вижу вы тоже человек высокой культуры.
Аноним 07/01/26 Срд 21:51:46 1482055 189
Аноним 07/01/26 Срд 22:00:55 1482066 190
>>1482016
>Именно этого и хочется в рп, что бы моделька понимала сцену, учитывала предисторию как автор книги
Кстати, а ты знаешь, что существует GLM-4.6 на 356.79 B параметров? Просто напоминаю.
Аноним 07/01/26 Срд 22:10:51 1482076 191
>>1482066
Да я бы и на квенкодере с минимаксом угорел бы, и дипсик бы крутил, если бы оно все в кудахтер лезло. Но не лезет, вот в чем подводный. А квен 235 лезет в любой игровой комп, подтюненный рамкой до вполне себе консьюмерских 128гб.
Но я и это проебал, отложив покупку рамки на потом.
Аноним 07/01/26 Срд 22:31:08 1482110 192
Как квен 480B кодерский унитаз в рп по сравнению с 235B? Есть смысол качать?
Аноним 07/01/26 Срд 22:35:17 1482127 193
>>1482110
Помойка, как и любой другой Квен. Единственное исключение - Сноудроп, и то с нюансами.
Аноним 07/01/26 Срд 22:41:06 1482144 194
>>1480503
Хрюкнул.

Дипсик сыпется на переводе, грок, гпт-5.

Только старый грок 3, старый 4о и гугл с клодом сейчас норм.

Я даже скачаю эту модель и проверю её качество, аж интересно стало, что они называют тяжёлой артиллерией.
Аноним 07/01/26 Срд 22:54:49 1482182 195
>>1482110
Специфичен, замечал что может много внимания уделяет текущему и меньше прошлым событиям на оче длинных историях. Не настолько плохо как мистрали, но подобных ошибок больше чем привык. В остальном умница, внезапно хорошо кумит.
Аноним 07/01/26 Срд 23:00:12 1482191 196
>>1482127
>>1482182
Жаль нет рп тестов. Ладно, как скачаю - будем как в старые добрые трахать серафиму первым сообщением, результаты запощу в треде.
Аноним 07/01/26 Срд 23:19:11 1482233 197
>>1482191
> рп тестов
Слишком сложная задача все это параметризовать, а потом объективно оценивать по критериям. И рпшат люди по-разному с совершенно разными запросами и хотелками.
Аноним 08/01/26 Чтв 00:04:44 1482274 198
Есть ли сейчас модель, ради которой прям стоит собирать станцию с кучей памяти? Я понимаю, что большинство тут энтузиасты и вам в принципе вкатывает гонять всякие разные нейронки, но у меня не такой случай. Времени самому всё пробовать нету, по этому просто хочется знать, есть ли та самая локалка которая ебет в рп и на которую не жалко вывалить 200+ тыщ с учетом текущих расценок? Сам сейчас сижу на 12/32 системе, для бытовых задач использую большую гемму, для поигрушек мелкий мистраль. Вроде этих двух моделек для всего хватает, но большие я никогда и не пробовал, сравнивать просто не с чем.
Аноним 08/01/26 Чтв 00:05:27 1482275 199
Аноним 08/01/26 Чтв 00:14:36 1482282 200
>>1482274
Самым разумным в твоем случае будет найти где-нибудь апи (опенроутер, например) и поиграться с моделями побольше. Твой опыт - это твой опыт. Чего тредовички ни скажут, нельзя принимать за истину. Одному разницы нет между 12б Немо и 123б Мистралем, для другого она есть. Все субъективно, как и само понимание того, сколько может стоить машина исключительно для рпшинга. Я сижу на Эире, не вижу радикальной разницы с 32б плотненькими няшами, но разница есть, в лучшую сторону.
Аноним 08/01/26 Чтв 00:14:56 1482283 201
meme.jpg 146Кб, 1000x940
1000x940
2.1.png 86Кб, 780x500
780x500
2.2.png 151Кб, 779x766
779x766
2.3.png 114Кб, 786x610
786x610
Аноним 08/01/26 Чтв 02:29:52 1482367 202
изображение.png 44Кб, 344x721
344x721
>>1482283
Чуть-чуть переформатировал результаты для читаемости. Текст нейронка, а не ocr делали, могут быть ошибки.
Аноним 08/01/26 Чтв 02:33:09 1482368 203
>>1482367
Кстати странно что nvlink настолько нулевое влияние оказывает.
Может быть тестовый скрипт сделать, где тензор на 25 ГБ перекидывается с одной карты на другую и замеряется скорость? Действительно ли там будет что-то порядка ≈83 и ≈1700 мс.
Аноним 08/01/26 Чтв 02:34:00 1482369 204
>>1482368
А то либо он не работает. Либо он у тебя не отключается.
Аноним 08/01/26 Чтв 02:35:39 1482372 205
Нищеаноны, а что вы солар то не пробуете. Ради интереса скачал, по крайней мере цензуры нет (без думалки офк)
Аноним 08/01/26 Чтв 02:40:12 1482373 206
LTX-200035.mp4 2476Кб, 1280x704, 00:00:10
1280x704
Аноним 08/01/26 Чтв 02:41:48 1482374 207
image.png 321Кб, 1419x1084
1419x1084
Поясните некоторую вещь. Которую не понимаю как работает.
Общаюсь с моделями через koboldcpp, скачиваю персонажей через characterhub.
Как там общаться надо, с какой концепцией. Нужно говорить от имени себя, или как в классических текстовых рпг нужно указывать концепцию окружающего мира? Ну то есть задавать правила из чата и говорить от лица рассказчика?

Порой кажется будто работает так и так. Но в карточке это не указывается. Но когда говорю от лица персонажа (себя). Как будто ломается повествование и порой нейронка выдаёт текст от персонажа сама по себе...

Не понятно.
Аноним 08/01/26 Чтв 02:45:42 1482375 208
>>1482274
Странный вопрос, все зависит от твоих запросов и возможностей, как правильно написал большинство не только ллм катают. А так да, в зависимости от масштаба, от эйра до дипсика/кими. В качестве разнообразия немотрончик очень хорош это про ультру, не подумайте
> 200+ тыщ с учетом текущих расценок
Если речь про целиком пекарню - тут можно разве что хуйцаэйр соснуть. Разве что удачно насобирать некроту на 4+ каналах ддр4 и 3090/в100.
>>1482283
>>1482367
Спасибо, добра! Если тесты справедливы то выходит что нвлинк никак не влияет.
>>1482368
> тестовый скрипт сделать, где тензор на 25 ГБ перекидывается с одной карты на другую
This https://github.com/NVIDIA/nccl-tests
Если хочешь именно скрипт:

import torch
import time
size = 67108864
tensor_cuda0 = torch.randn(size, dtype=torch.float32, device='cuda:0')
start_time = time.time()
tensor_cuda1 = tensor_cuda0.to('cuda:1')
transfer_time = time.time() - start_time
print(f"Время пересылки: {transfer_time:.2e} секунд")

Как обернуть в цикл для уточнения на множестве, замерить пересыл по шине через проц и прочее сообразишь.
Аноним 08/01/26 Чтв 02:48:14 1482376 209
>>1482374
Короче вопрос. Говорить нужно от собственного лица, как участника мира. Ил как от лица рассказчика?
Надеюсь понятно выразился.
Аноним 08/01/26 Чтв 03:01:05 1482381 210
LTX-200038.mp4 1209Кб, 1280x704, 00:00:15
1280x704
Аноним 08/01/26 Чтв 03:23:09 1482398 211
>>1482376
>>1482374
Ладно. Я видимо даун и общаюсь не через то приложение.
Аноним 08/01/26 Чтв 03:30:36 1482399 212
>>1482398
Чел, полчетветого утра. Нюня спит и не может ответить. А мы игнорим потому что в ахуе с твоей карточки
Аноним 08/01/26 Чтв 03:40:28 1482400 213
>>1482399
Лол кек. Выходные. Время не помеха.
Я месяцами общался через кобольда, а сейчас прочитал, что это всё херня и надо через SillyTavern картчоки грузить. Пиздос.
Аноним 08/01/26 Чтв 05:32:10 1482418 214
image.png 366Кб, 1544x779
1544x779
>>1481930
>На мистралях:
>На гемме:
У меня в обоих как только нагенерирует "something" или "about" - все по пизде идет
Аноним 08/01/26 Чтв 06:20:07 1482428 215
Аноним 08/01/26 Чтв 07:43:38 1482436 216
>>1482282
>найти где-нибудь апи (опенроутер, например) и поиграться с моделями побольше
Спасибо, попробую на выходных.
>как и само понимание того, сколько может стоить машина исключительно для рпшинга
Ну я в любом случае собираюсь обновляться. Уже не первый год сижу на древней 3060 которая не вывозит даже FHD на стабильных кадрах без апскейлеров. Только сейчас у меня выбор, взять только новую карту, или вообще всю платформу, ибо мать с процессором тоже дерьмовые, которые я на сдачу брал когда у меня денег не было вообще.

>>1482375
>от эйра до дипсика/кими
Как оно в сравнении с корпами? Все еще разница чувствуется, или разрыв по качеству не критичный?
Аноним 08/01/26 Чтв 07:52:54 1482439 217
>>1482376
От своего лица если ты играешь от своего персонажа. От лица рассказчика если ты собираешься тупо быть наблюдателем и хочешь чтобы всё отыгрывала нейронка. Диалоги и спич в целом выделяют двойными ковычками с обоих сторон, а нарратив пишут либо в звездочках, либо без выделения вообще - но это зависит от модели, какой формат она лучше понимает.
Аноним 08/01/26 Чтв 08:56:38 1482449 218
Кто-нибудь уже ролил минестреля 14b? Валяется на диске, все руки до него не доходят.
Аноним 08/01/26 Чтв 09:02:19 1482453 219
>>1482375
>Если тесты справедливы то выходит что нвлинк никак не влияет.
Либо просто не работает, и данные катаются через псину.
>>1482376
Как больше нравится, так и делай. Если совсем косноязычен, то будь рассказчиком, пусть нейронка пишет и твою речь. Если можешь связать пару слов, то можно и от первого.
>>1482381
>LTX-200038.mp4
>200038
Только не говори, что это число генераций только что вышедшей нейронки.
>>1482400
Это влияет только на удобство. Так то и через кобольда можно в классный экспириенс, просто всем лень.
>>1482436
>без апскейлеров
Даже 5090 не умеет без апскейлеров (правда там уже 4к и стабильные 144).
>Как оно в сравнении с корпами?
По сути это и есть корпы, просто опенсорснутые.
>>1482439
>Диалоги и спич в целом выделяют двойными ковычками с обоих сторон, а нарратив пишут либо в звездочках, либо без выделения вообще
Чел на русике рпшит. Там возможно лучше использовать русский книжный формат - выделение речи через тире.
Аноним 08/01/26 Чтв 09:18:24 1482456 220
>>1482368
перед покупкой гуглил какой профит от nvlink, и сошелся на следующем: профит только на дообучении и использовании моделей FP16+tensor-parallel = по сути на nvlink поебать
если в целом комплект оценивать, для меня профит в следующем:
1) мне не надо бегать по городу собирать у бомжей 3090 и гадать живые они или нет
2) размер + формат подключения, я не могу себе риг поставить даже если б захотел, стойка итак вся забита
3) Лучше хуёвый станок, чем пиздатое нихуя.
Аноним 08/01/26 Чтв 11:32:09 1482558 221
сука жиды украл[...].png 51Кб, 427x102
427x102
наконец приехал последний кит из 4х ддр5-4800, кому там что интересно было протестировать на 12 каналах цпу-онли епик4?
Аноним 08/01/26 Чтв 12:07:24 1482593 222
>>1482436
> Как оно в сравнении с корпами?
Это и есть модели аналогичные корпам. Эйр - конкурент младше-средним моделям, даже получше их будет. Остальные уже средние-старшие, считай на релиз отстают. В ассистент чате и рп могут быть даже лучше за счет меньшей лишней надрочки и лоботомии.
Хз можно ли отнести к минусам, но вероятность обделаться гораздо выше, потому что на корпах ты возьмешь готовый пресет, который будет как-то работать (часто норм для старта и весьма всрато для длинночата), а тут придется настраивать и понимать как устроено.
Аноним 08/01/26 Чтв 12:51:20 1482646 223
У видео треда лтх
У sd треда z base
У аниме треда возможно z base затюненный в аниме
А у нас что?
Аноним 08/01/26 Чтв 12:59:51 1482649 224
>>1482646
>А у нас что?
А у меня отвал одной видяхи. Скорее всего райзер шалит, но температура в районе сидушки почему-то начинает расти.
Держу в курсе
Аноним 08/01/26 Чтв 13:12:31 1482666 225
>>1482558
А вроде же нет модельки, больше чем kimi2 на 1B?

>>1482649
Так воткни же её без райзера или через райзер от соседней. Или они хрустальные и после втыкания видюхи доставать, менять и шевелить его крайне нежелательно?
Аноним 08/01/26 Чтв 13:15:12 1482673 226
>>1481975
>Хотел было >>1480947 (You)
>Darkhn_G3-27B-Animus-V12 скачать, но там написано:
А еще там написано, что на ней успешно играют general purpose roleplay. И подтверждаю - я тоже про ту специализированню вселенную впервые там услышал, на странице модели. Тем не менее, от "general" с ней впечатления весьма положительные.
Аноним 08/01/26 Чтв 13:22:56 1482683 227
>>1482666
>Или они хрустальные и после втыкания видюхи доставать, менять и шевелить его крайне нежелательно?
Да не, всё возможно. Просто лень слегка. Тут на новой плате каждая холодная загрузка долгая, видимо, надо тренировку отключать. Подустал перебирать короче. Впрочем да, сейчас займусь проверками, будь неладен этот недориг.
Аноним 08/01/26 Чтв 13:32:34 1482707 228
>>1482666
есть Ling, но 1тб я всё равно тестировать не буду потому что результат очевиден.
Аноним 08/01/26 Чтв 13:56:44 1482738 229
>>1482398
И так и так и так можно, но лучше работает когда пишешь от третьего лица в режиме соавторства с моделью.
Аноним 08/01/26 Чтв 13:58:12 1482740 230
>>1482436
>собираюсь обновляться
Поздно. И рано. В любом случае - не время.
Аноним 08/01/26 Чтв 14:01:42 1482746 231
>>1482398
А, ну и возможны ты насрал в семплеры или такие настройки просто не работают для текущей модели и надо посмотреть @ подкрутить
Аноним 08/01/26 Чтв 14:11:19 1482759 232
>>1482586
А ведь если бы ты по-человечески извинился, он бы понял, простил и вернулся...
Аноним 08/01/26 Чтв 14:30:04 1482768 233
>>1482144
>>1480583
Сделали бы они ее 20b, толку было бы больше. Видимо, совсем крузис памяти их в печаль вогнал. Возьми квант только полный, если тестить будешь, на огрызке уже затестили.
Аноним 08/01/26 Чтв 14:48:06 1482781 234
>>1482768
Вот совсем не факт что от 20B было бы больше толку. Тут ведь очень специфическая задача, где излишня креативность вредит, зато точность - должна помогать. Так что небольшая сетка (которую можно без мелкоквантов на табуретке запустить), натасканная строго на эту конкретную задачу - звучит как план. И даже, IMHO, с шансами на удачную реализацию.
Не замечал, что если обычным моделям дать задачу "переведи" - так начало, обычно, неплохо, а то и хорошо? Но чем дальше по тексту- тем больше отсебятины и фигни? Тут метод обучения должен быть разным. Если обычная модель - предсказывает "что будет дальше на основе контекста", то переводчик - "повтори то же самое но на другом языке". У обычной модели - это ведет к лупам, и нам не нравится. А переводчику, в общем то, как раз и надо.
Аноним 08/01/26 Чтв 14:48:30 1482782 235
Аноны, кто-нибудь пробовал или может быть знает инфу о том, как делать ревью коммитов, пулл реквестов при помощи локальных моделек?
Аноним 08/01/26 Чтв 14:54:40 1482788 236
>>1482781
Для перевода вообще трансформеры должны использоваться не так, как в ЛЛМ, ну да ладно.
>>1482782
Никак. Это невозможно. Забудь об этом.
Аноним 08/01/26 Чтв 15:07:12 1482806 237
>>1482649
> отвал одной видяхи
Nani? Та ну, за время риговладения райзеры и питание столько мозгов делали что подобное кажется почти невероятным. Даже когда все было максимально облагорожено, все равно иногда капризничает.
Райзер обычно срет ошибками и тормозами, а как отвал выглядят именно проблемы с питанием. pci-e power тоже склонны подгорать, причем по сравнению с 16 пиновым локальная статистика не в их пользу.
>>1482707
Да чето среди всей этой шайки для рп субъективно лучше всего дипсик, хоть у него и параметров поменьше. Линг и кими напоминают старые его версии, которые были довольно ублюдочными, лучше но из той же оперы.
Аноним 08/01/26 Чтв 15:55:03 1482870 238
изображение.png 100Кб, 615x614
615x614
>>1482683
>>1482806
>Райзер обычно срет ошибками и тормозами
ХЗ, у меня именно зависание и синька с ошибкой драйвера видяхи. Впрочем да, это райзер, карта в слоте работает чётко. Блин, у меня все запчасти для переделок заказаны из кетая через месяц, придётся текущий райзер мучить, или сидеть как лох на 235B.
Аноним 08/01/26 Чтв 16:01:49 1482877 239
Какая база треда чтоб гунить?
This?
Самый простой в использовании и установке форк llamacpp: https://github.com/LostRuins/koboldcpp
Аноним 08/01/26 Чтв 16:06:07 1482884 240
Аноним 08/01/26 Чтв 16:10:01 1482888 241
Аноним 08/01/26 Чтв 16:24:20 1482917 242
image 568Кб, 1026x881
1026x881
>>1482888
Эм, а какую модельс этогос писка нада чтоб без цензуры и для гунинга?
Аноним 08/01/26 Чтв 16:34:37 1482933 243
>>1482870
> именно зависание и синька с ошибкой драйвера видяхи
Было именно такое из-за уставшего разъема, шевеление на какое-то время исправляло. Чтобы к такому привел райзер - это нужно капитально ошибок накопить, вся система будет лагать.
Обе штуки мониторятся. Ошибки легче всего в hwinfo, мотаешь в самый низ, проблемы с разъемами - сенсоры напряжения портов питания и pci-e, если под нагрузкой видны просадки - оно.
Аноним 08/01/26 Чтв 16:36:11 1482935 244
>>1482917
Это всё одна модель. Спроси у чата гпт что это за таблица, просто скопируй текст и вставь в чат
Аноним 08/01/26 Чтв 16:36:34 1482936 245
>>1482917
Это все одна модель, просто чем меньше размер, тем тупее, но быстрее и меньше памяти требует
Аноним 08/01/26 Чтв 16:44:55 1482946 246
>>1482935
>>1482936
Ну хорошо, я вижу сбоку комментарии, качаю 99, потому что написано быстрое, но весит много, значит не тупое.
Аноним 08/01/26 Чтв 16:52:03 1482955 247
>>1482936
На этом все, хладнокровный Аноним. Можете пройти за кволити.
Аноним 08/01/26 Чтв 16:54:16 1482959 248
>>1482946
>99
Нет пути... Он стал моделью.
Аноним 08/01/26 Чтв 17:00:02 1482967 249
image 156Кб, 903x406
903x406
ООО! Спасибо вам кто выше мне ссылки кинул и советы. Оно живое.
И не так долго на моей 3060 как думал. Глубокий никий поклон.
Аноним 08/01/26 Чтв 17:02:25 1482972 250
image 162Кб, 727x383
727x383
А еще она даже русская и считать умеет. Я не знал что локалки уже такие умные бывают.
Аноним 08/01/26 Чтв 17:08:36 1482979 251
>>1481667
Проиграл с этого Лобачевского
Аноним 08/01/26 Чтв 17:10:35 1482980 252
>>1482967
> Pinkie Pie

и эти люди запрещают мне ковырять в носу
Аноним 08/01/26 Чтв 17:12:17 1482983 253
>>1482972
считать локалки не умеют, это у неё в датасете записано, что 7+8=15
чтобы оно начало считать, надо прикрутить к нему выполнение кода. что может быть чревато последствиями
Аноним 08/01/26 Чтв 17:15:14 1482989 254
>>1482983
>считать локалки не умеют
Умеют. ЛЛМ устроены как большая асоциативная база данных, если очень упрощать. Логикой они обладают. Можешь придумать сам какую-нибудь задачку, какой нигде нет и предложить ее сколь-нибудь умной локалке. Гпт Осс решает университетские задачи по математике и школьные олимпиадные старших классов, например. Я даже формулировки менял и давал задачи с неверными исходными данными.
Аноним 08/01/26 Чтв 17:17:55 1482994 255
>>1482989
А препода она может заменить?
Нет?
Ну пусть хуй тогда сосёт даже это не может
Аноним 08/01/26 Чтв 17:19:36 1482998 256
powersave.png 189Кб, 734x725
734x725
balanceperforma[...].png 191Кб, 774x736
774x736
>>1482558
STREAM/TRIAD
EPP=powersave -> 389 GB/s
EPP=balance_performance -> 391 GB/s
в принципе нарм, у японцев с этим процом 394 вышло, скорее всего с EPP=performance.
Аноним 08/01/26 Чтв 17:22:29 1483004 257
>>1482998
Для инфиренса all reads и read-only актуальнее, там разница профилей производительности существенная.
Аноним 08/01/26 Чтв 17:22:31 1483005 258
>>1482994
Ты пришёл в ЛЛМ тред рассказывать, что ЛЛМ тред говно? Агишиз опять раздуплился после новогоднего бухалова или залётный? ЛЛМ тебе и пояснения дадут как решали задачу, и объяснят пробелы. Ясен хуй, человека оне не заменит, но если у тебя самого голова на плечах есть - существует очень много юзкейсов, когда будет реальная польза.
Аноним 08/01/26 Чтв 17:27:56 1483013 259
image 63Кб, 806x992
806x992
>>1482980
Реально. Если уж и ебать пони, то как минимум Королеву.
Аноним 08/01/26 Чтв 17:34:14 1483020 260
>>1483013
если уж и ебать пони, то Луну
Аноним 08/01/26 Чтв 17:39:56 1483029 261
image 308Кб, 1094x501
1094x501
>>1482983
Умеют. Всего на свете в датасет не запишешь. Можно и матан научить решать, если записать условия в датасет и обучить. Но она как-то сранно считает, иногда говорит что сложно, иногда осчитает. Видимо от карточки зависит, характера пони.
Аноним 08/01/26 Чтв 17:47:42 1483046 262
>>1483020
Если уж и ебать, то Эплблум в теле Макинтоша
Аноним 08/01/26 Чтв 18:01:09 1483067 263
Ебать я лох был что на онлайн сервисах так долго сидел. Что-то умное спросить и советы можно у чат гпт онлайн бесплатно без регистрации, а кумить с джейлбрейками без цензур и багов можно было оказывается на локалках вполне. А может есть спец модели для куминга одобренные людями культуры?
Аноним 08/01/26 Чтв 18:01:19 1483068 264
изображение.png 15Кб, 1717x167
1717x167
изображение.png 1164Кб, 884x1056
884x1056
изображение.png 215Кб, 900x1490
900x1490
>>1482933
>проблемы с разъемами - сенсоры напряжения портов питания и pci-e
Короче, ХЗ что это было, перебрал, протёр контакты, и вроде починилось. А может болтик новый в держателе помог.
Про совет с напряжениями спасибо, буду смотреть при проблемах. Правда ХЗ какая просадка допустима. Как будто самая большая просадка на pci-e, он на моём райзере как раз от одного саташника запитан, там лимит 52 ватта, а плата в пике запросила 55. Возможно платы с доп питанием сата не лучшая идея, как тут и писали. С другой стороны, тратить целый PCI-E питание на плату райзера это жирно как по мне.
Аноним 08/01/26 Чтв 18:04:39 1483070 265
>>1482933
> hwinfo, мотаешь в самый низ, проблемы с разъемами - сенсоры напряжения портов питания и pci-e
>>1483068
> 3

а есть такое же для люниксапрыщеблядикса?
Аноним 08/01/26 Чтв 18:06:46 1483071 266
А с пиндодо реально купить v100 32? Что-то на али не осталась нихуя за нормальные деньги.
Аноним 08/01/26 Чтв 18:15:04 1483075 267
>>1483071
Мне кажется тот лот где за 30к были V100 выкупил чисто тред, лол.
Там ещё 11 штук завезли в тот же лот, уже по 35к.
Аноним 08/01/26 Чтв 18:42:00 1483092 268
>>1483067
> А может есть спец модели для куминга одобренные людями культуры?
Новьё:
- gemma3-27B-it-abliterated-normpreserve
- Cydonia-24B-v4.3-heretic-v2

Старьё:
- Broken-Tutu-24B-Unslop-v2.0
- Forgotten-Transgression
- 12B Мистральки из шапки.
Аноним 08/01/26 Чтв 18:48:35 1483096 269
image 271Кб, 413x851
413x851
Лол а где все мои настройки с джийлбрейками и т.п. в таверне? Для локалок чтоли где-то вс езаново писать? Ну та длину ответов, запреты всякие или наоборот разрешения. Хде?
Я виж ток стандартные шизоидные пресеты. А где их менять и свои создать можно? Может у тредовча есть? Делитес.
Мне надо длину ответов и чтоб повествователь не пиздел когда не просят.
Аноним 08/01/26 Чтв 18:49:49 1483097 270
>>1483096
> Может у тредовча есть? Делитес.
Тут за такое убивают. Сам разбирайся. Задавай конкретные вопросы получай ответы.
Аноним 08/01/26 Чтв 18:51:43 1483100 271
>>1483097
Ну епт, тогда чат гпт попрошу написать. Иронично нейронка помогает делать мне нейронок.
Аноним 08/01/26 Чтв 18:53:28 1483102 272
>>1483100
> Ну епт, тогда чат гпт попрошу написать
)))))))))))))
Удачи.
Аноним 08/01/26 Чтв 18:57:05 1483105 273
image 12Кб, 225x265
225x265
Аноним 08/01/26 Чтв 18:57:46 1483106 274
>>1483102
>)))))))))))))
Ты так сильно обиделся штоль? Чмок
Аноним 08/01/26 Чтв 19:00:15 1483109 275
Слушайте, а как перевод в локалке через силли таверну работает? Оно продолжает гугл (или что другое в таверне указано) захватывать или через модель переводит когда кнопку жмешь. Мне важно знать, а то перевод хуевенький.
Аноним 08/01/26 Чтв 19:01:30 1483110 276
>>1483109
оно не работает, забудь
Аноним 08/01/26 Чтв 19:10:33 1483117 277
>>1483110
Да((( Ри работает без инета, это не локалка переводит. Я готовлюсь к чебурнету. Кто мне будет переводы делать, если не локалка? Оно то если принудить будет на 1 языке, а я не хочу.))(
Аноним 08/01/26 Чтв 19:11:04 1483118 278
Аноним 08/01/26 Чтв 19:14:45 1483123 279
>>1483109
Ну просто берешь умничку 27b и кумишь на русском сразу из коробки. А если шейх с много озу - берешь жирный квен. Пиздец вы любители собирать троллейбус из буханки хлеба, конечно
Аноним 08/01/26 Чтв 19:18:40 1483132 280
>>1483092
>gemma3-27B-it-abliterated-normpreserve
Так это гуглопидорское. Или там можно обойти цензуру тож? В чем соль?
Аноним 08/01/26 Чтв 19:30:26 1483146 281
>>1482781
Если больше параметров, то модель больше одупляет, что она вообще делает, это не обязательно про креативность. Например, касательно перевода, понимает особенности художественного и технического текста, стилистики, уместности ипользования слов. Если не долбоебы занимаются подготовкой модели, то в среднем больше параметров = лучше в любой сопоставимой по классу задаче. При условии, что модели одного поколения и одной архитектуры.
Аноним 08/01/26 Чтв 19:42:29 1483153 282
>>1483117
>Кто мне будет переводы делать, если не локалка?
Мозг.

>>1483118
>крякни
КРЯ. Или тебе ещё и три раза ку сделать?

>>1483132
>Или там можно обойти цензуру тож? В чем соль?
Новый метод аблитерации, не ломающий мозги (ну, значительно меньше) + стандартный промт соавтора-сторителлера на гемму.

+ умничка умеет кумить со смыслом, а не просто декалитры жидкостей лить
Аноним 08/01/26 Чтв 20:17:37 1483198 283
>>1483068
>он на моём райзере как раз от одного саташника запитан
Земля тебе пухом - электросвиней запитывать не от писи или молекса... В крайнем случае советую тебе рассмотреть переходник 2xSATA->PCI-E 6 pin, на озоне такие валяются. Лучше всего будет запитать с разных линий (особенно если у тебя просадки), но если сечение норм, то и с одной норм, хотя бы не будешь испытывать сам разъем на прочность.
Аноним 08/01/26 Чтв 20:29:03 1483211 284
У геммочки честный кеш маленький, а остальный SWA.
Я могу как-то сделать честный кеш на 32к токенов? А то она что-то пропускать начинает.
Или это нельзя архитектурно? Или можно, но так как она на этом не училась - то у неё крыша поедет?
Аноним 08/01/26 Чтв 20:35:06 1483226 285
Мне срочно нужен хдд 6Тб под модели и как архив для нейрон, ну суки копоративные, создают нового бога, а мне нельзя биокарлиц багинь теперь комфортно творить. Вы б стали платить 30к за 6Тб? Все что ниже - б/у и шлак как сигейт.
Аноним 08/01/26 Чтв 20:48:24 1483245 286
Аноним 08/01/26 Чтв 20:50:08 1483247 287
>>1483226
помню когдато 2тб брал за 2500 руб...
Аноним 08/01/26 Чтв 20:52:32 1483249 288
>>1483226
Ждуны в пролёте. Либо бу с авиты хз за сколько и в каком состоянии, либо бу с тавы по 10к с +- понятным состоянием
Аноним 08/01/26 Чтв 21:03:33 1483257 289
>>1483249
Придется еще ПАДАЖДАТЬ. Корпы же не могут бесконечно скупать железки. Это бизнес уровня как риелтор сам бы у себя квартиры стал поккупать. Их уже даже офисники хуесосят и отменяют в соцсетях, не продержатся и полгода за такой гнилой мув. Я блять такое только в кино видел, чтоб жирный король скупил всю еду с рынка и закапывая в землю и городским тогда б пришлось пиздовать пахать в поля чтоб найти пропитание.
Аноним 08/01/26 Чтв 21:07:48 1483260 290
>>1483226
А зачем тебе столько места под модели? Вопрос без подъеба. Ну допустим ты хочешь не только под свое железо актуальные модели засейвить, но и под все юзкейсы. Скажем, 8б, 12б, 24б, 32б, 70б, 123б модели и пару МоЕшек. Например, Эир и Квен 235 (потому что больше ничего толкового для рядового пользака нет). Q4-Q6 кванты. Ну это же терабайт максимум.

У меня внешних ЖД на 15тб, там куча медиаконтента на все случаи жизни - вот это мне понятно, учитывая интернет тенденции по всему миру и в частности у нас в России.
Аноним 08/01/26 Чтв 21:11:32 1483263 291
>>1482888
Для чего нужен heretic тюн цидоньки если цидонь и так кум-тюн? На сколько я знаю что отказы нужны для характера. Аблитерированные модели имеют проблемы отыгрывать персонажей с принципами, а в комбинации с кум-тюном у тебя любой персонаж в сукуба должен превратится после 1-2 сообщений.
Аноним 08/01/26 Чтв 21:20:43 1483273 292
изображение.png 70Кб, 1289x486
1289x486
>>1483198
>переходник 2xSATA->PCI-E 6 pin
Эээээ... А что он даст то? У меня на плате саташник, сами видеокарты само собой по отдельным проводам псины питаются.
>>1483226
>Мне срочно нужен хдд 6Тб под модели и как архив для нейрон
Меняю 6ТБ диск на 5090.
Аноним 08/01/26 Чтв 21:21:02 1483274 293
>>1483198
>В крайнем случае советую тебе рассмотреть переходник 2xSATA->PCI-E 6 pin, на озоне такие валяются.
Вот кстати спасибо, мне давно нужно было что-то подобное, а то у меня только восемь PCI-E 8 pin от БП, а нужен девятый PCI-E 6 pin в плату воткнуть, если четвёртую карту в риг захочу добавить :)

Хотя один хуй для серьёзного рига второй БП брать придётся.
Аноним 08/01/26 Чтв 21:25:57 1483277 294
>>1483260
Пара моделек под сетап на 512гб уже ощутимо тянет карман
Аноним 08/01/26 Чтв 21:33:17 1483281 295
>>1482998
>в принципе нарм
Бандвич штука хорошая, только вот одного его недостаточно. Интересно, что будет (особенно с промпт процессингом), если к этой системе добавить 1(одну) 5090?

Задавал этот вопрос ещё прошлом августе ЕМНИП и тогда это казалось интересным решением. Но сейчас цены совсем не те.
Аноним 08/01/26 Чтв 21:36:40 1483282 296
>>1483257
добро пожаловать в кино. жидам не выгодно, чтобы у людей были домашние компьютеры, они готовы выкидывать ваши же ахулиарды денег только на то, чтобы вам вычислительные мощности не достались и вы были вынуждены арендовать их у жидов.
Аноним 08/01/26 Чтв 21:36:47 1483283 297
>>1483277
>Пара моделек под сетап на 512гб уже ощутимо тянет карман
Если у тебя есть деньги на такой сетап, то и НВМЕ от 2Тб потянешь. Даже простой SATA SSD смысла не имеет, а тут о хардах рассуждают.
Аноним 08/01/26 Чтв 21:39:53 1483285 298
>>1483281
> с промпт процессингом
улетит в небеса. цпу-онли промпт процессинг - полный пиздец

> если к этой системе добавить 1(одну) 5090?
я добавил 1(одну) 6000, иронично за ту же цену, что и 12 планок 64гб ддр5-4800
Аноним 08/01/26 Чтв 21:42:21 1483287 299
>>1483283
512 можно было дёшево собрать, буквально за 50к. Речь же не идёт о ддр5 под сп5
+ мишек насыпать на 128гб за 50к

мимо
Аноним 08/01/26 Чтв 22:27:11 1483341 300
>>1483273
>У меня на плате саташник
А, я подумал, что у тебя там пися, но ты запитал от сата через переходник. Тогда да, печаль-беда, я ради этого новые райзеры заказывал, чтобы их можно безопасно через кабель писи напрямую питать.

>>1483274
Если в плату райзера, то норм, а если в саму карту, то стремновато (хотя, по идее, карта должна понять по sense пину, что в ней 6 pin, а не 6+2, и сбрасывать потребление, иначе зачем этот sense вообще сделан). У меня есть еще уже эксклюзивный 2хMolex->6+2 pcie (эксклюзивный т.к. этой позиции в рф магазине, который делает усиленное сечение и пайку, давно нет), вот его можно и в карту сувать, если с разных линий запитывать. Если найдешь китайский аналог, то можешь еще его рассмотреть.
Аноним 08/01/26 Чтв 22:28:25 1483343 301
>>1483273
>linux
>русский язык
А мсье знает толк... Небось ещё и сообщения об ошибках в гугле переводит, чтобы погуглить.
Аноним 08/01/26 Чтв 22:36:19 1483352 302
>>1483260
Ну так не только нейронки, у меня просто уже место забито с инета что качаю, а также нужды диски под бэкапы на случай если действенные полетят понимаешь.
Аноним 08/01/26 Чтв 22:37:43 1483355 303
>>1483273
Да у тебя итак 5090, не верю что такой мажор не стоял первый в очереди за ней.
Аноним 08/01/26 Чтв 22:41:04 1483364 304
Аноним 08/01/26 Чтв 22:50:56 1483378 305
>>1483364
Ага, такой. Но если ты реально хочешь в саму карту втыкать, то будь осторожней. Как минимум осмотри и легонько подергай, а то в этих китаеподелиях пайка на соплях может быть. А потом лучше бенч прогнать какой, чтобы если где-то начнет греться или плавиться, то хотя бы под надзором.
Аноним 08/01/26 Чтв 23:00:54 1483391 306
solar2.png 234Кб, 957x812
957x812
йцут.png 218Кб, 946x674
946x674
Хотя ладно, солар реально залупа. Соевый рефьюз с придурошной логикой. Для сравнение на втором скрине ответ квена 235.
Аноним 08/01/26 Чтв 23:35:31 1483422 307
>>1483341
>Тогда да, печаль-беда, я ради этого новые райзеры заказывал, чтобы их можно безопасно через кабель писи напрямую питать.
Как по мне, саташки должно хватать, и проблема не в питании.
>>1483343
Это OMV, почему бы и нет. В чистую люнупсу лезть лень.
>>1483355
Ну не верь. На деле я не мажор, а айтишник на вынужденной пенсии, так что 5090 подобрал на дне рынка, и то одну.
Аноним 08/01/26 Чтв 23:51:35 1483448 308
Аноним 09/01/26 Птн 00:32:10 1483500 309
>>1483422
Бля ну ни над щас заплачу с душещипальной истории жизни( на дне рынка 5090((( подобрал на пенсии
Аноним 09/01/26 Птн 00:33:49 1483503 310
>>1483500
путин же обещал достойные пенсии? вот, получите-распишитесь
Аноним 09/01/26 Птн 00:37:45 1483509 311
>>1483500
На самом деле сейчас я вырубил карту с райзером, но баги продолжились. Так что возможно я действительно буду плакать.
>>1482649 -кун
Аноним 09/01/26 Птн 01:19:11 1483544 312
>>1483226
пузырь либо скоро лопнет, либо, вероятнее, все будет еще хуже с железом. и что через месяц будешь писать:

>Вы б стали платить 40к за 2Тб?

1) CES 2026 показал, что на потреб. рынок забивают болт
2) сейчас, с такими ценами, уже наконец-то спрос соответствует предложению, все кто хотел (и мог) - закупились. по-этому цены не так резко растут
3) однако произодить для потреб. рынка будут намного меньше. вопрос времени, когда существующий сток распродадут. цены ниже врядли упадут, скорее снова вырастут

мне бы хотелось верить, что пузырь скоро лопнет, но CES меня в этом разубедил
Аноним 09/01/26 Птн 01:22:40 1483547 313
>>1483544
Там че и харды подорожали? Просто с ними-то какая разница, у меня 8-терабайтный HGST уже десяток лет для хранения помоев - охуенно работает, тьфу-тьфу.
Аноним 09/01/26 Птн 01:23:35 1483549 314
>>1483547
>Просто с ними-то какая разница, у меня 8-терабайтный HGST уже десяток лет для хранения помоев - охуенно работает, тьфу-тьфу.
Ну тобишь, он вообще серверный. Потребительский не потребительтский, какая разница. Лишь бы не для записи данных с видеокамер.
Аноним 09/01/26 Птн 01:53:11 1483552 315
>>1483549
Под файлопомойку можно и эти использовать, да и вообще почти любой хлам, в рейд-1 засунуть, и дело с концом.
На самом деле - лишь бы не SMR (черепичная запись). Вот это - реальная жопа и непотребство.
Аноним 09/01/26 Птн 01:58:31 1483553 316
>>1483547
>Там че и харды подорожали?
Тут один из директоров Самсунга намедни интервью давал. И сказал: не переживайте за память, граждане - подорожает всё. Вообще всё. Ибо такова парадигма(с)

PS Я долго присматривался к планшетику игровому, всё думал: скоро ещё лучше выйдет или подешевеет, а старый пока работает же... А теперь заказал. Ибо нехуй.
Аноним 09/01/26 Птн 03:45:31 1483575 317
>>1483068
> ХЗ какая просадка допустима
В идеале минимальная, и синхронная по прочим сенсорам. То есть если проседает бп под нагрузкой - это заметят и сенсоры материнки, и разные вольтажи на гпу будут падать идентично. Если же под нагрузкой падает только один или пара вольтажей по питанию, да еще само падение больше чем 0.5В - подыхает разъем, его нагрев и рукой будет заметен после продолжительной нагрузки. Питание pci-e с райзера если он без доп питания тоже может проседать.
>>1483070
nvidia-smi dmon -s et -d 10 -o DT
>>1483281
> что будет (особенно с промпт процессингом), если к этой системе добавить 1(одну) 5090
А без нее оно смысла не имеет. На риге с шустрой врам к дополнению к много 12-канальной врам 20-15т/с генерации в зависимости от контекста на дипсике. Пп в районе 200-300 что мало для агентов но норм для рп.
>>1483226
> Все что ниже
Не так давно торговались живчики hdd на 16тб на ~20к и ssd 8тб за 30-40к. Или дешевле если удачно подыскать, бу офк но с 90+ ресурсом.
Аноним 09/01/26 Птн 05:58:01 1483612 318
miku wanna kms.jpg 170Кб, 697x415
697x415
>>1480947
>>1480982
>>1481975
>>1482673
>>1481127
>>1481292
>>1481293
>>1481295
>>1481295
>>1481329
>>1481733
>>1481873
>>1481744
Блять, да как вы затрахали!
>хуйнянейм говно
>ниееет это ты говно сабж - лучшая модель эвер
>да нет это говно вот хуйнянейм-тюн даа, вот он работает.
>нихуя хуйнянейм-тюн не работает, все тюны говно, оригинальная модель - это единственно верный вариант
>нет вы все долбаёбы, это хуйнянейм-2 прям топовый топ лучше быть не может, очень пиздатое РП, может даже на иврите рпшить!
>да вы подождите, вот хуйнянейм-3 - вот это реально тема. лучшая модель для рп на иврите.
>хуйнянейм-3 не может нормально в кум. соевая, пиздец, вот хуйнянейм3-тюн-хуйнянейм2 пиздат для кума
>блять хуйнянейм3-тюн-хуйнянейм2 в иврит нихуя не может шизит и зацикливается, а вот хуйнянейм-4...
>ни одной из этих хуёвин, нету в шапке, а то что в шапке - обсирается в треде.
Аноним 09/01/26 Птн 06:24:54 1483615 319
>>1483612
Удивлю, но модели на хф заливают чаще, чем обновляют шапку. Почему тебя так порвало?
Аноним 09/01/26 Птн 06:36:41 1483616 320
>>1483615
>Удивлю, но модели на хф заливают чаще, чем обновляют шапку.
Да ну? Серьёзно? А шапка нужна, чтобы туда пихать каждую попавшуюся модель, а не только лучшие?

>Почему тебя так порвало?
Просто модели из шапки - срут, но вот истинной абсолютнейшей годнотейщины™, которая, по мнению анонов из треда, ебёт всё и вся - там почему-то нет.
Аноним 09/01/26 Птн 06:50:01 1483623 321
>>1483612
> и всё это в 4 кванте и до 350б
Просто лезут на локалки думая что тут лафа и не нужны им эти корпы хостящие в 8 бит, когда тут новейший мега пуксереньк файнтюн от драммера 24б 4q в карту влезает.
А тут всё так же, ниже 6 кванта жизни нет, ниже 350б жизни нет, ниже 90к контекста жизни нет, всё это прочнейшая база, локалки очень даже живы, но не для вас, молодой человек
Аноним 09/01/26 Птн 06:55:06 1483625 322
>>1483623
>> и всё это в 4 кванте и до 350б
Наверное, только пара-тройка Анонов в этом треде способны вырваться из этого круга ада. Так что вы меньшинство, а мнение меньшинства не учитывается.
А ещё вы дохуя важные, на самом деле.
Аноним 09/01/26 Птн 07:17:22 1483631 323
>>1483616
>шапка нужна, чтобы туда пихать каждую попавшуюся модель
Я тебе ничего про это не говорил. Что-то мешает обновить шапку и добавить туда лучшее из того, что вышло? Или лучшая модель выходит раз в год по твоему мнению?

>>1483616
>истинной абсолютнейшей годнотейщины
Откуда ей взятся? Ты требуешь чтобы инструмент который генерирует текст предсказывая следующее слово на основе предыдущих устраивал каждого, когда у каждого свой системный промпт, свои хотелки, свои настройки семплеров,. Это просто невозможно. Даже не каждый анон знает английский.
Аноним 09/01/26 Птн 07:18:54 1483632 324
>>1483448
>ггуфов пока нет
Появились.
Аноним 09/01/26 Птн 08:07:40 1483637 325
Как ситуация с карточками АМД? У них же памяти побольше, можно больше аыгрузить слоев
Аноним 09/01/26 Птн 08:23:41 1483639 326
>>1483631
> Я тебе ничего про это не говорил.
Тогда к чему был тот вборс про разность обновления шапки и частоту создания новых моделей?

> Что-то мешает обновить шапку и добавить туда лучшее из того, что вышло?
Отличная идея! Как мне это сразу в голову-то не пришло!? А я то думал в шапку просто рандомные модели занесли.

Только к чему ты мне-то об этом говоришь? Я по-твоему, имею возможность изменять шапку?
Да и даже если бы хотел, как мне понять что Анон действительно считает годным, если вы ебучие шизы, которые не могут сойтись в одном мнении и решить что действительно годно? Засирая даже то, что занесено в шапку, под статусом "годно"?

> Ты требуешь чтобы инструмент который генерирует текст предсказывая следующее слово на основе предыдущих устраивал каждого, когда у каждого свой системный промпт, свои хотелки, свои настройки семплеров,.
Я не требую, у меня просто баттхёрт. Я бугурт.

Объективно, понятно, что восприятие "годноты" у каждого отличается, отличаются настройки, железо, версии ПО, файнтюны, но блять нигде такого нет, как в этом треде. Когда буквально любое утверждение о годноте можно литералли считать бесполезным.
Довериться Анону и его вкусу здесь, это всё равно, что поставить всё на зеро. Естественно, получить годноту шанс такой же, как и выиграть с подобною ставкой.
Слава богу, хотя бы деньги не отбирают при входе в тред.
Аноним 09/01/26 Птн 09:00:28 1483656 327
>>1483544
Все потому что у зумеров и пыниксов нет компов?
Аноним 09/01/26 Птн 09:09:49 1483657 328
Затра важный день
Но не для лмм
Выйдет z image base и glm image
Всё просто, ллм обучать сильно дороже и сложнее
Да и интереса у людей к картинкам больше
Всё тихонько умирает
Аноним 09/01/26 Птн 09:29:48 1483666 329
não gosta da mi[...].jpg 117Кб, 735x1058
735x1058
>>1483544
Это всё было бы оправданно, если бы они действительно делали нового бога, но ведь они же разрабатывают системы для более эффективной слежки и убийства других людей.
Ожидайте пришествие Allied Mastercomputer от Palantir Technologies.
Человекам пизда в 2028. Скриньте.
Аноним 09/01/26 Птн 09:42:44 1483677 330
>>1483666
>но ведь они же разрабатывают системы для более эффективной слежки и убийства других людей.
Да кому нужны ваши пукалки. И следить за людьми занятие пустое, а вот ответить на платоновский вопрос было бы интересно. Есть мнение, что на этом человек и закончится, да и хуй с ним а может будет с ним что-то совсем новое. Интересно же.
Аноним 09/01/26 Птн 09:58:39 1483685 331
Аноним 09/01/26 Птн 10:16:05 1483689 332
>>1483612
О нет! Существует живая дискуссия по сабжу? Это просто отвратительно нахуй! Мне не нравится, ткну всех вот этих вот которые нихуя не понимают и только срут в тред. Ох как полегчало, какой я умница всё-таки. (С) Долбаёб. Бухой утка или ещё один умник нашелся?
Аноним 09/01/26 Птн 10:29:24 1483695 333
>>1482989
Какая у тебя гпт осс?
Вчера взял квен3 кодер 30Б, и он не смог на питоне с первого раза вывести список чисел от 10 до 1000, сумма первых двух цифр которых равна 5.
А онлайн дипкек сразу несколько правильных вариантов предложил.
Аноним 09/01/26 Птн 10:58:29 1483710 334
>>1483637
Такая же, как с Нвидия. Памяти у них почти всегда столько же, но АМД медленнее, чем зеленые процентов на 30. С ЛЛМ ситуация бывает лучше, идут почти вровень. Чтобы слоев больше выгружать, на Линупс надо идти, но касается это и красных и зеленых.
Аноним 09/01/26 Птн 11:05:50 1483716 335
>>1483544
> все кто хотел (и мог) - закупились. по-этому цены не так резко растут
> не так резко
за прошедший месяц оператива сделала ещё +40% а суммарно с сентября по январь цена выросла в 4.6 раз
Аноним 09/01/26 Птн 11:09:04 1483717 336
>>1483716
Это просто догон до Китая. В конце ноября там уже было х5 и с того момента движения нет
Аноним 09/01/26 Птн 14:51:49 1483924 337
>>1480909
Нормальный пресет.
Без шизапромпта/пресета всё те же проблемы что и с ним, он просто направляет модель куда нужно.
Шизапромпт это когда тут постят огромный список чего модели делать НУ НИ В КОЕМ СЛУЧАЕ нельзя, у гичан вместо этого инструкции что делать желательно, всё ещё оставляя модель "развязанной"
Аноним 09/01/26 Птн 15:13:01 1483935 338
>>1483924
Ага, что делать желательно: миллиард инструкций, объясняющих, что такое рп и как правильно пукать. Точно не шизопромт, нини.
Аноним 09/01/26 Птн 15:27:05 1483944 339
>>1483935
>миллиард инструкций, объясняющих, что такое рп и как правильно пукать
Каким промпт и должен быть. Тут как с генерацией на флакс или ван - нужно жирное полотно объясняющее каждую мелочь.
И такое мнение в треде и было до того как тут начали форсить промпт в одну строчку, лол.
То что модель от мелкого промпта не ломается ещё не значит что он лучше для рп, она и с "ты меня ебешь, я тебя ебу" прилично отыграет, но с большим промптом будет умнее
Аноним 09/01/26 Птн 15:33:27 1483949 340
>>1483944
>Каким промпт и должен быть.
>с большим промптом будет умнее
Как ты пришел к выводу, что с большим промптом модель будет "умнее"?
>Тут как с генерацией на флакс или ван - нужно жирное полотно объясняющее каждую мелочь.
Зачем? У генерации картинок и креативной ролевой игры две диаметрально противоположные задачи - сгенерировать точный результат, как можно больше соответствующий описанию в случае картинкогенерации, и получить креативный, интересный ответ на твой ввод в случае рп.
>И такое мнение в треде и было до того как тут начали форсить промпт в одну строчку, лол.
Мнения имеют свойство изменяться с приобретением опыта. Тем более, что сейчас стали доступны мое модели, которые из коробки знают и понимают, что такое ролевая игра. Если ты Квену 235 скормишь жирное полотно из промпта - он начнет писать еще хуже, потому что будет следовать инструкциям "дважды": исходя из собственного понимания что такое ролевая игра и следуя каждой бессмысленной инструкции "ты персонаж, ответь как персонаж, потому что это ролевая игра"
Аноним 09/01/26 Птн 15:49:17 1483960 341
>>1483949
Изи детект того кого нельзя называть
Аноним 09/01/26 Птн 15:52:16 1483966 342
>>1483944
> Тут как с генерацией на флакс или ван - нужно жирное полотно объясняющее каждую мелочь.
Это не плюс. Сначала наделали мусорных капшнов, где вместо содержимого одни дефирамбы и филлеры, а потом оформили тренировку этим без должной аугментации. В итоге модель требует спама чтобы делать простые вещи, а без него не дорабатывает.
> Каким промпт и должен быть.
Не должен. Уместно было во времена мезозоя, когда модели вообще не понимали что к чему и как делать разметку в рп.
> с большим промптом будет умнее
Наоборот, внимание будет уходить не на сюжет, а на пропуск очевидного. Или наоборот слепое следование им с наваливанием слопа и тех самых ответов за юзера.
Аноним 09/01/26 Птн 15:56:54 1483977 343
>>1483949
>что такое ролевая игра
Эх, как же хочется отойти от шаблона ролевой игры...
>>1483966
>Сначала наделали мусорных капшнов
Но но, ты пропустил нулевой шаг. Сначала обучили модели капшенов на мусорных данных, где процентов 10 тегов просто неверны, а потом да, высрали вторично переработанные датасеты.
>внимание будет уходить не на сюжет
База. Реальный контекст моделей в 4к вообще не стоит превышать, а тут одних инструкций "как какать" на 16 наливают.
Аноним 09/01/26 Птн 16:00:45 1483983 344
>>1483710
> Чтобы слоев больше выгружать, на Линупс надо идти, но касается это и красных и зеленых.
Это за счет того, что можно рабочий стол вырубить и освободить кусочек памяти в видяхе? Или что-то еще?
Аноним 09/01/26 Птн 16:07:39 1483987 345
>>1483983
Больше оптимизаций, чище код. Вся ии инфра крутится на лини. То что запускается на винде это бэкпорты
Аноним 09/01/26 Птн 16:08:32 1483990 346
>>1483710
>Чтобы слоев больше выгружать, на Линупс надо идти, но касается это и красных и зеленых
Что это значит? Я недавно на линупс перешёл от скучной жизни и у меня нихуя не получается так же оформить загрузку VRAM и RAM, там очень строгие значения, винда же говорит "надо 300гб врам? Да похуй, держи" и проблемы на начнутся, пока ты реально не забьёшь всё, и то, она начнёт плавно из ОЗУ подсасывать. На линуксе хуй, говорит не может аллокейт KV cache ещё на моменте загрузки модели.
Аноним 09/01/26 Птн 16:13:42 1483998 347
>>1483990
>и то, она начнёт плавно из ОЗУ подсасывать
Так это ж минус.
Аноним 09/01/26 Птн 16:19:01 1484005 348
>>1483949
> будет следовать инструкциям "дважды": исходя из собственного понимания что такое ролевая игра и следуя каждой бессмысленной инструкции
> понимания
Блять что я прочитал.. Мы уже достигли аги?
А ты не думал что любая, даже самая короткая инструкция накладывается на то что там квен понимает и это лишь мешает?
Гоняй вообще с пустым промптом, будет ещё лучше
Аноним 09/01/26 Птн 16:28:15 1484008 349
>>1484005
>Гоняй вообще с пустым промптом, будет ещё лучше
Что за глупая гиперболизация? Тебе 15 лет? Есть большая разница между "ты участник ролевой игры и гейммастер" и "ты чар, участвуешь в ролевой игре, ролевая игра это когда ты отвечаешь как чар, чтобы развивало историю, соответствовало чару, не противоречило предыдущим сообщениям..." (И ещё тыща токенов избыточных обозначений, которая модель уже "поняла" на фразе "ты участник ролевой игры")

И ты не поверишь, Квены хорошо работают без промпта, да. Квк, Сноудроп и 235 я катал с <think> префилом на пару сотен токенов, и именно так добивался лучших результатов, когда модель не зажата в тиски, пишет интересно и свободно.

Урок тебе - не готов обсуждать другую точку зрения и аргументировать свою, не утруждайся срать в тред. Чмок в лобик.
Аноним 09/01/26 Птн 16:29:35 1484010 350
>>1483637
Все плохо. Первая беда в пердольности - считай только линукс и все весьма сырое. Второе - основная кодовая база заточена под куду, наибольшей болью будут оптимизации атеншна и около того, в итоге формально модели запускать сможешь, но скорости будут ниже, а жор памяти выше.
>>1483695
> он не смог на питоне с первого раза вывести список чисел от 10 до 1000, сумма первых двух цифр которых равна 5
Скиллишью здесь. Модель небольшая и в первую очередь заточена на выполнение конкретных инструкций. Справиться и с кривой разметкой, и с корявыми промптами, и с надмозговым запросом, который сначала нужно расшифровать у нее сил не хватает.
Во втором же случае все изначально обустроено самым удачным образом, и модель не просто весьма умная, а буквально тренирована пытаться догадываться что юзверь хотел.
>>1483977
> где процентов 10 тегов
Какие еще теги, везде nl. И как раз условно "неверные" 10% - вообще не проблема, будет дополнительной аугментацией и легчайше отсеется.
Все проблемы начались когда даже имея приличные модели, кому-то показалось что больше = лучше, и не важно насколько уместно, неважно какой ценой.
>>1483990
Тут с этими самыми проблемами, которые начинаются, наоборот часто безуспешно борются, а у тебя наоборот плюсом стало.
Аноним 09/01/26 Птн 16:43:06 1484028 351
>>1484010
>И как раз условно "неверные" 10% - вообще не проблема, будет дополнительной аугментацией
А нужна ли такая аугментация?
>кому-то показалось что больше = лучше
Так лучше же. Или что там увеличивают?
Аноним 09/01/26 Птн 16:48:09 1484038 352
>>1483998
А чё ему ещё делать, если у тебя нет больше VRAM?
>>1484010
>Тут с этими самыми проблемами, которые начинаются, наоборот часто безуспешно борются
Я на линуксе буквально третий день сижу а локальными нейронками обмазываюсь второй месяц, модели которые целиком во VRAM влезают вместе с кэшэм работают на процентов 10-20% быстрее в линуксе, а которые впритык тупо шлют меня нахуй. В винде не нужно было просто слои дрочить и подбирать чтобы и контекст залез, и слои. Не нужно было все окна закрывать, скорость просто проседала и всё. Она сама плавно кидала нехватающее в ОЗУ. Или я чё-то не понимаю? У людей беда, что винда не слои, а кэш кидает в ОЗУ и жопа по скорости начинается или что? У меня все диалоги в районе 16к контекста были и модели на 12-14 миллиардов, хз чё там у буржуев с гиганскими моделями.
Аноним 09/01/26 Птн 16:59:22 1484057 353
>>1484038
>А чё ему ещё делать, если у тебя нет больше VRAM?
Он про автоматическую выгрузку. Она руинит скорость в ноль, и нужна совсем бомжам с 4гб врам, чтобы игры не вылетали. Для ИИ настраивают нормальное разделение моделей в лламе.цпп, а не вот это всё.
Аноним 09/01/26 Птн 16:59:43 1484059 354
>>1484028
> А нужна ли такая аугментация?
С определенного момента очень.
> Так лучше же.
Не лучше. Лучше когда для действительно детальной картинки есть очень подробное описание с настоящим содержимым. Например
> На бескрайнем полотне света, словно отражение мечты в стеклянной чаше, возникает женственная фигура, в которой синтезируется тончайшая грань между реальностью и потенциалом. Она — не просто существо, а символ архетипа, в котором скрыта пыльца времени и звёздная пыль вдохновения. Её тело, как будто вытянуто из нити, прозрачной, как дыхание утреннего тумана, излучает мягкое сияние, словно звезда, впервые родившаяся в пустоте. Каждая линия её формы — как грамматика чувства, написанная в небе, где каждый контур — это шепот небесной музыки. Голова, как кристалл, в котором отражается весь мир, украшена темными волосами, которые кажутся нитью, вытянутой из небесного шёпота, каждая из которых — как звук, который невозможно услышать, но ощущается в сердце.
Вместо
> фигура худой темноволосой девушки стоит на белом фоне
И помимо подробного нужны также варианты короткого и среднего, которые могут быть выбраны для тренировки с некоторой вероятностью.
>>1484038
> которые впритык тупо шлют меня нахуй
Выкинь часть слоев на профессор изначально, будет работать быстрее чем выгрузка драйвером.
> винда не слои, а кэш кидает в ОЗУ
Винда ничего не кидает, там драйвер по какому-то своему алгоритму оформляет свап врам в рам, это приводит к тормозам.
Аноним 09/01/26 Птн 17:00:49 1484062 355
>>1484059
> Например
А не вытянутый из пальца нейромусор, который накидывают ради объема для пустой пикчи. Например

фикс
Аноним 09/01/26 Птн 17:31:19 1484100 356
>>1483983
Не обязательно стол вырубать. На Шиндовс графическая оболочка больше Врама жрет, около 2 Гб. На Линуксе можно добиться значений 500-800 Мб с легковесными оболочками. А можно и стол вырубить. Не знаю, может на Свинде тоже можно. Ну и для АМД Линукс луше потому, что там ROCm работает получше.

>>1483990
Да, Винда тебя избавляет от проблем расчетов памяти и спасает от падения в случае ее переполнения. С Линуксом надо точнее самому считать, но по итогу производительность лучше, как ты и сам написал.

>надо 300гб врам? Да похуй, держи

Но есть нюанс. Память я дам, VRAM я не дам.
Аноним 09/01/26 Птн 17:39:02 1484111 357
>>1484059
>С определенного момента очень.
А нафига? Я просто не очень много нейронки тренировал, и как по мне, запутывание сети идея плохая.
>Лучше когда для действительно детальной картинки есть очень подробное описание с настоящим содержимым.
А, согласен. Просто не так тебя понял вначале. Я думал ты про размеры сеток и картинок.
>И помимо подробного нужны также варианты короткого и среднего, которые могут быть выбраны для тренировки с некоторой вероятностью.
Как по мне, лучше сразу. Или как-нибудь комбинировать, ХЗ. Думать надо. А сейчас компании такие со словами "некогда думать, тут тренировать нужно!" кидают в нейросети тонны пизженного контента сомнительного качества.
>>1484062
О, так ещё понятнее (хотя получился противоположный вывод, лол). Полностью согласен.
>>1484100
>около 2 Гб
Лол, нет. 300 мегабайт после загрузки. Я под браузер гиг оставляю, проблем не видел.
Аноним 09/01/26 Птн 17:50:15 1484127 358
>>1484111
> Как по мне, лучше сразу. Или как-нибудь комбинировать
Ну как раз выбирая каждый раз случайную вариацию капшна для изображения (да и изображение можно немного модифицировать при необходимости, при генерации пикч не сильно актуально, но в моделях зрения их только так шатают). Тогда оно сможет работать и с длинными и с короткими промптами. Дроп тегов или частей промпта вместе с перемешиванием где применимо необходимо чтобы модель не запоминала определенные их последовательности как триггер и не накапливала лишних байасов. А то буквально без "волшебного сочетания" будет работать сильно хуже (что и происходит), игнорировать некоторые части и т.п.
> получился противоположный вывод
Там строка была, смахнул случайно перед отправкой. Подробным пикчам - подробные описания и наоборот. И подробность должна быть настоящей, а не искусственной как в том гипертрофированном примере нейропомоев, которые часто можно видеть в качестве "примера хорошего".
Аноним 09/01/26 Птн 17:56:06 1484139 359
>>1484127
>Ну как раз выбирая каждый раз случайную вариацию капшна для изображения
Как вариант. Но как будто бы нужно тренировать десяток раз для каждой пикчи. Как по мне, нужно разделить обучение рисованию и обучение текстовой части. Впрочем, я не силён в современных картиночных сетях.
>но в моделях зрения их только так шатают
Это да, видел, но там цель в том, чтобы модель распознавала любое говно.
>Дроп тегов или частей промпта вместе с перемешиванием где применимо необходимо чтобы модель не запоминала определенные их последовательности как триггер
А, помню пони 6 с её вызубренным score_9, score_8_up, score_7_up, лол.
Аноним 09/01/26 Птн 18:08:20 1484161 360
>>1484139
> десяток раз для каждой пикчи
Если датасет мал то там, как правило, несколько эпох. Если он оче большой - то что для каждой пикчи не будут показаны все варианты - не страшно. Более того, в таком случае можно изначально сэкономить на сложных капшнах, подготовив их не для всего датасета.
> нужно разделить обучение рисованию и обучение текстовой части
Они и так разделены. Текст токенизируется, формируется в эмбеддинги и проходит через блоки трансформера, все также как в ллм, только в энкодере может быть полное внимание и не используется голова/проектор. А визуальная часть уже под полученный тензор кондишна подстраивается. В целом, когда все уже натренировано и работает, можно тренировать визуальную и текстовую часть совместно, но с рядом оговорок, потому что там легко получить коллапс.
> пони 6 с её вызубренным score_9, score_8_up, score_7_up
Идеальный пример. И ведь даже там если бы автор не поленился настроить должную аугментацию, изначальная задумка про "70% и выше" могла бы сработать. Не в оригинальном смысле, где подразумевалась шиза про "части датасетов", но некоторые усредненные свойства бы вызывались.
Аноним 09/01/26 Птн 18:44:55 1484212 361
>>1484111
Так ты с подкачкой из ОЗУ сидишь, потому тебе и под брузер норм. Не обязательно 2 Гб всегда, но облочка Винды в среднем жирнее, чем мелкооболочки Линукс. Да и жрет память Винда не только графоболочкой. Плюс, в Линукс есть секретная фишка с памятью. В целом, дело вкуса, Винда неплохо справляется, но можно лучше, если охота предолиться.
Аноним 09/01/26 Птн 19:08:34 1484235 362
>>1483689
>утка
Хэй, свистни в хуй там тоже дырка.
Звуки яростной игры на бояне.
Аноним 09/01/26 Птн 19:23:52 1484256 363
>>1484212
> в Линукс есть секретная фишка с памятью
это какая?
>>1484235
крякни
Аноним 09/01/26 Птн 19:25:24 1484257 364
>>1484161
>Если он оче большой - то что для каждой пикчи не будут показаны все варианты - не страшно.
Как по мне, проёб знаний. Ну и ты походу больше про файнтюн, а я про базу.
>А визуальная часть уже под полученный тензор кондишна подстраивается.
Я к тому, что картинку прогонять один раз, а кепшены во всех вариантах сразу.
>>1484212
>Так ты с подкачкой из ОЗУ сидишь
Нет, это гроб-гроб-кладбище, я бы заметил. Ну и по диспетчеру общая выделенная память меньше памяти ГПУ.
Аноним 09/01/26 Птн 20:09:07 1484316 365
>>1484257
> проёб знаний
> а я про базу
В тех масштабах "потери" как таковыми потерями даже не являются на фоне прочей стохастики. Наоборот даже лучшего усвоения можно добиться.
> картинку прогонять один раз, а кепшены во всех вариантах сразу
Как ты себе это представляешь?
Аноним 09/01/26 Птн 20:12:06 1484325 366
>>1484316
>Как ты себе это представляешь?
А хуй его знает. Заморозка части градиентов? Тут думать надо. Или не надо, всё равно на одной 5090 базовую рисовалку не обучить.
Аноним 09/01/26 Птн 20:44:45 1484345 367
>>1484325
> Заморозка части градиентов?
Зачем? Всякими усреднениями занимается оптимайзер, и при должной настройке делает это успешно.
> на одной 5090 базовую рисовалку не обучить
Можно и на одной, просто будет долго https://huggingface.co/KBlueLeaf/HDM-xut-340M-anime качество в сделку не входило.
Аноним 09/01/26 Птн 21:28:38 1484375 368
>>1484100
>Винда тебя избавляет от проблем расчетов памяти и спасает от падения в случае ее переполнения
Ну я понял в целом да. Это наверное суперважно, когда у тебя война за каждый токен на гигансткой модели, а не когда как я микрописьки 12-14б крутишь
Аноним 09/01/26 Птн 22:29:22 1484459 369
>>1484345
>Всякими усреднениями занимается оптимайзер
Ну ХЗ, я бы не назвал промпт средней длины усреднением короткого и длинного промптов.
>>1484375
>война за каждый токен
>автовыгрузка в оперативку
На ноль делишь.
Аноним 09/01/26 Птн 23:10:57 1484554 370
Аноним 09/01/26 Птн 23:21:42 1484580 371
>>1484459
> оптимайзер
> промпт средней длины
Значение знаешь?
>>1484554
Оно хуже. Тут интересен сам прецедент и демонстрация возможности.
Аноним 09/01/26 Птн 23:28:07 1484589 372
image 649Кб, 576x896
576x896
image 918Кб, 704x1152
704x1152
image 1610Кб, 1024x1024
1024x1024
image 3788Кб, 2048x2048
2048x2048
>>1484580
>Оно хуже
Да как будто то же самое, местами даже лучше. Вот например пикчи из временной капсулы 2022 года.
Аноним 09/01/26 Птн 23:33:37 1484593 373
>>1484589
Лисичка ничего, лол. Но действительно хуже, менее стабильно и функционально чем наи1 и первые вд (хотя там битва была равна). Скачай попробуй, штука занимательная потыкать.
Аноним 09/01/26 Птн 23:51:19 1484617 374
>>1484580
>Значение знаешь?
Предполагаю.
Аноним 10/01/26 Суб 06:38:13 1484830 375
>>1483448
>https://huggingface.co/CrucibleLab/M3.2-24B-Loki-V2
>ггуфов пока нет, какой-то новый мистралетюн (заметил случайно, драммер лойс поставил)
Как-будто пережарили, по первым впечатлениям, ощущается как 12b.
Хотя я предыдущие версии не проверял, может они все с такой ебанцой. Если что брал пресет со страницы модели. Q5_K_M
Аноним 10/01/26 Суб 08:13:21 1484845 376
Pshh pshhh
Аноны что юзают 120OSS, вы уже мишку юзали?
Потому что я не могу для себя решить. Вин или нет.
Аноним 10/01/26 Суб 08:49:57 1484852 377
изображение.png 102Кб, 183x275
183x275
>>1482449
отвечу сам себе.
Ministral3,14b instruct.
В трусы лезет. Насколько глубоко - проверять не хочется. Галлюцинирует, иногда забывает важные детали (возможно лечится промтом). Часто пишет чушь, путая одно с другим (возможно лечится подробными карточками). Русик есть, он не самый плохой, но лучше им напрямую не пользоваться, а транслейтить, хоть через тот же мэджик.
Карточки кстати читает хорошо. В отличие от Nemo 12b, прочитав карточку, пользуется ей, а не подтирается. Хотя может быть, это и минус, потому что воспринимает карточку как инструкцию.
Настройки сэмплеров от 12b не подходят, приходится микрить в поисках золотой середины между "скудно и однообразно" и "да что ты черт побери несешь".
Было бы круто заиметь какой-нибудь начитанный тюн с хорошим словарным запасом. Вроде бы пишет хорошо, иногда прям отлично, но как-то скупо. После какого-нибудь начитанного мержа с Немо прям грустно.
Аноним 10/01/26 Суб 08:55:17 1484858 378
>>1481744
Это только сфв? Какой пресет/семплеры. Поделись, пожалуйста.
У меня путается в контексте и говорит от моего лица почти всегда. Хотя мистралю норм.
Аноним 10/01/26 Суб 09:33:12 1484872 379
привет друзья, какие сейчас лучшие по вашему мнению gguf весом <11GB с квантами до fp8 ?

1. умные и корректные
2. нецензурные
3. русскоязычные
4. русскоязычные нецензурные
5. специальные, vlm, tts, stt, sd

Интересны именно gguf/llama.cpp или в крайнем случае safetensors под mlx
Такие ограничения потому что только 16ГБ унифицированной памяти из которых примерно 12GB доступно на всё вместе.
Аноним 10/01/26 Суб 10:14:40 1484888 380
1000018550.jpg 242Кб, 696x1018
696x1018
Ебаный китайцы наймите уже переводчика
Нихуя не понятно релизнут тока глм имаге или глм имаге и еще что то
Аноним 10/01/26 Суб 11:43:43 1484926 381
>>1484888
Написано де будет какая-то бесплатная модель и через API платная Image. Ты тупой?
Аноним 10/01/26 Суб 11:51:25 1484928 382
>>1484872
>умные и корректные
Квен, гемма, но может что-то еще вышло и я пропустил
>нецензурные
мыстраль-12B
>русскоязычные
только гемма
>русскоязычные нецензурные
Такие есть, но они говно, уровень "я тебя ебу" с двумя-тремя прилагательными между
>специальные, vlm, tts, stt, sd
Не знаю, не пользовался
Аноним 10/01/26 Суб 11:59:22 1484932 383
>>1484926
Написано лишь что добавят пейпал тем кто хочет запускать через api
Может она будет и локально и api, слишком сложно для тебя, я знаю
Аноним 10/01/26 Суб 12:05:56 1484939 384
>>1484852
раскочегарил-таки менестреля.
Работает вполне сносно, на удивление не глуп, если давать внятные инструкции. Склоняюсь к UD-версии, она кажется получше обычной. Жаль стоковый русик посредственный, а мэджик подтупливает иногда, хоть свой плагин пиши который будет адекватно транслейтить мой запрос для сетки, и сеточный ответ - для меня.
Впрочем, это мелочи.
Аноним 10/01/26 Суб 13:41:41 1484992 385
Решил скачать Dolphin Llama 3 по гайду с ютуба, там сказали в качестве лаунчера использовать AnythingLLM. Какие подводные?
Аноним 10/01/26 Суб 13:52:42 1484999 386
Жора блять :j
Ну не 4 же токена, ну спизди ты один, не жалко, какие 4 из 9 нахуй.
Аноним 10/01/26 Суб 14:11:09 1485011 387
>>1484992
пчел...
гайды с гитхаба устарели на неделю, гайды из треда устарели на месяц, гайды с ютуба устарели на год
Аноним 10/01/26 Суб 14:14:17 1485013 388
>>1485011
Чем устарели? Я заметил, что ответы короткие, но и у меня не суперкомпьютер все таки.
Аноним 10/01/26 Суб 14:16:12 1485014 389
>>1484992
>Какие подводные?
Подводные в чем? Будет ли оно работать? Будет. Но модель уже древняя, есть варианты куда лучше. Плюс выбор лаунчера сомнительный, но зависит от твоих задач - пока их не перечислишь, точнее никто не ответит.
Аноним 10/01/26 Суб 14:18:54 1485018 390
>>1485013
Ты говно мамонта палкой ковыряешь
Аноним 10/01/26 Суб 14:21:45 1485021 391
Как же у меня жопа горит.
Я старательно игнорирую персонажа, избегаю его, а ебаный попугай, пол года до аги, блять, не может сложить 2 и 2 и высрать драмму где это персонаж подходит и говорит хотя бы "Ой, ты меня избегаешь?", желательно не виляя бёдрами и шепча на ушко при этом.
Неет, нужно чтобы я сам это написал, буквально дал команду сделать вот так
Аноним 10/01/26 Суб 14:23:39 1485023 392
>>1485013
Ну как тебе сказать... Ты пытаешься играть в гта вайс сити, когда актуальная - пятёрка. Пропасть в графоне/физоне имаджинировал? Вот между древней моделью и новой - разница будет такой же.

Пиши характеристики своей пекарни и какие задачи - подберем годноту тебе.
Аноним 10/01/26 Суб 14:25:27 1485026 393
Аноним 10/01/26 Суб 14:28:05 1485027 394
>>1485014
>>1485023
У меня 2 ядра 2 гига игровой ноут с 16гб рам и ай5-1235 и встройкой, поэтому я решил даже не пытаться что-то актуальное ставить.
Аноним 10/01/26 Суб 14:30:43 1485029 395
>>1485027
>я решил даже не пытаться что-то актуальное ставить
Нет никакой разницы в требованиях между моделями которые весят примерно одинаково. Тебе главное загрузить их в память, остальное уже тонкости. Если загрузишь - значит заработает. Для чего тебе вообще нужна модель? Так и не ответил.
Аноним 10/01/26 Суб 14:33:56 1485032 396
>>1485029
>Для чего тебе вообще нужна модель
В первую очередь иметь возможность спрашивать всякое, что онлайн сетки цензурят. Еще хотел бы попробовать поиграть в нейроквесты, но это не основное.
Аноним 10/01/26 Суб 14:36:53 1485033 397
vid.mp4 454Кб, 720x1280, 00:00:06
720x1280
>>1485021
Каждый твой пост подобен видрилу.
Клован, месяцы идут-идут, а ты так ничему и не научился. Только в тред семенишь.
Аноним 10/01/26 Суб 14:38:54 1485034 398
>>1485032
>спрашивать всякое, что онлайн сетки цензурят
Конкретику давай. Корпоратки цензурят много чего, от порнухи до политики. Если порнуха не нужна, но нужна мощная для своего размера сеть - есть всякие геммы, квены и дистиллянты дипсика. Если хочешь дрочить на нейрослоп, то тюны ламы третей и мистрали немо твои друзья. Они тупые, особенно под точные задачи, но цензуры там нет. Даже на дефолтных инструкт-версиях ее почти незаметно.
Аноним 10/01/26 Суб 14:41:19 1485035 399
>>1485027
Было бы 32гига рама - 30a3 лучшее из того что влезло и имело бы приемлемую скорость.
Чекай https://rentry.co/z4nr8ztd из шапки потенциально влезут до 12б но будет небыстро, обычно у любой врам больше чем у тебя рам.
Аноним 10/01/26 Суб 14:43:44 1485038 400
>>1485034
>порнуха не нужна
Порнуха не нужна.
>всякие геммы, квены и дистиллянты дипсика
И что из этого лучшее? Спасибо.
>ламы третей
Так я ее же и скачал.
Аноним 10/01/26 Суб 14:46:27 1485041 401
>>1485027
Если модель новее - это не значит что она требует больше ресурсов.

Под твой конфиг будет норм: https://huggingface.co/unsloth/gemma-3-12b-it-GGUF Эта модель самая умная в своём размере и отлично пишет на русском.

А если нужно СОВСЕМ без цензуры, вот: https://huggingface.co/mlabonne/gemma-3-12b-it-abliterated-GGUF Учти, что здесь отказы убраны ценой некоторого повреждения мозгов.

Качай в 4 кванте. Подойдет любой, начиная от Q4_K_M до Q4_K_XL. Запускай через https://github.com/LostRuins/koboldcpp - он актуален и очень дружелюбен к новичкам.

А вообще тебе бы чуть больше оперативки - со свистом залетел бы квен 30b-a3b, он был бы и умным и быстрым, но увы.
Аноним 10/01/26 Суб 14:48:20 1485044 402
Аноним 10/01/26 Суб 14:51:59 1485045 403
>>1485038
>И что из этого лучшее?
Попробуй гемму, если не собираешься дрочить на буковы. Либо 12B либо 3n-E4B, она весит меньше, работать будет чуть быстрее, а по мозгам чуть хуже.
>Так я ее же и скачал.
Ты написал, что тебе не нужна порнуха. Эта модель и ее тюны исключительно под порнуху, потому что сейчас она уже не выдерживает конкуренции.
Аноним 10/01/26 Суб 14:59:02 1485050 404
186 дней без глм эир 4.6
Аноним 10/01/26 Суб 14:59:58 1485052 405
да чел походу стесняется написать что ему на детей дрочить надо.

>>1485038
не стесняйся, тут каждый третий ради этого локалки гоняет
Аноним 10/01/26 Суб 15:02:48 1485053 406
>>1485052
>чел походу стесняется написать что ему на детей дрочить надо
Ну ты тоже давай да правильные термины используй. Никаких детей, только канни.
Аноним 10/01/26 Суб 15:32:17 1485083 407
>>1485041
спасибо еще раз, анон, все работает и гораздо лучше
Аноним 10/01/26 Суб 15:35:27 1485087 408
17680450136020.mp4 454Кб, 720x1280, 00:00:06
720x1280
Аноним 10/01/26 Суб 16:09:08 1485141 409
>>1485087
Почти 200, нахуй, дней, осознай эту цифру.
Щас месяцок и будет ещё веселее, дропнут глм 5... без эира
Аноним 10/01/26 Суб 16:11:14 1485146 410
Им нужно что то придумывать уже, это не дело.
Надо как в играх чтобы ты мог и на слабой карточке запустить, но на минималках, а чтобы вообще не мог это не дело
Аноним 10/01/26 Суб 16:13:31 1485152 411
>>1485141
Да мне похуй, хоть завтра ллмки умрут, мне Эира хватит если не до конца жизни то очень надолго. Почти каждый день его уже почти 200 дней запускаю и не заебался. Как думаешь в чем секрет?
Аноним 10/01/26 Суб 16:15:22 1485155 412
>>1485146
Так уже же есть квантование, только вместо графических шакалов смысловые
Аноним 10/01/26 Суб 16:17:51 1485159 413
>>1485152
>Как думаешь в чем секрет?
В том что у тебя есть пресетик, которым ты не поделишься?
Аноним 10/01/26 Суб 16:19:03 1485161 414
>>1485152
В копиуме?
Пока все играются с новой моделькой, ты сидишь в углу и коупишь как же мне хорошо с самой первой, экспериментальной сырой младшей версией этой модельки.
Я согласен что эир можно гонять долго... Например 186 дней?
Мне кажется хватит, заебало, хочется обновы
Аноним 10/01/26 Суб 16:20:05 1485162 415
>>1485146
>чтобы вообще не мог это не дело
Ты удивишься, но ты можешь. Даже если у тебя нет карточки и не хватает оперативы - есть файл подкачки. Так что да, если у тебя пустой диск на террабайт, ты можешь запустить модель на террабайт. Какая скорость там будет? Ну это уже не важно. Запускается же? Запускается.
Аноним 10/01/26 Суб 16:20:19 1485163 416
Аноны, а можете подсказать ботов для игры в Д&Д для того же кобольда? В другом треде какие-то ебанутые сидят.
Аноним 10/01/26 Суб 16:21:20 1485165 417
>>1485159
У меня их больше десяти на разные случаи жизни, на один только Эир. И 46 карточек, чаров, сценариев, симуляцией и много чего ещё. Таким как ты нихуя не поможет, вам даже дипсик в полных весах за пару месяцев надоест, пушто воображалка не работает и нужно развлечение по типу ящика Скиннера. И да, ясен хуй я ничем делиться не буду, опытом нюни учёный.
Аноним 10/01/26 Суб 16:24:06 1485168 418
>>1485165
Нюня уже всем поделился, ты опоздал.
Чатмл, короткий промпт и карточка тупа текстом
Аноним 10/01/26 Суб 16:25:10 1485170 419
>>1485163
>В другом треде какие-то ебанутые сидят.
Тут тоже ебанутые, только в другую сторону. D&D с ЛЛМками играть можно только сквозь пот, кровь и такие компромиссы, которые убивают идентичность настолок

>>1485165
>вам даже дипсик в полных весах за пару месяцев надоест, пушто воображалка не работает и нужно развлечение по типу ящика Скиннера
База
>ясен хуй я ничем делиться не буду
База. Если делиться такие вот долбаебы и будут вылезать, которые ждут что за них все сделают
Аноним 10/01/26 Суб 16:25:14 1485171 420
>>1485163
На чубах лежат кучи ботов, в шапке есть ссылка. Асигеры в своем пердеже варятся уже не первый год, спрашивать их нет смысла.
Аноним 10/01/26 Суб 16:25:19 1485172 421
>>1485165
нюнезаменитель идентичный натуральному
Аноним 10/01/26 Суб 16:27:20 1485176 422
>>1485172
Умные учатся на опыте других, глупые наступают в мышеловку, изобретенную веками назад. Нюня базовичок, умные треда сего его поняли и отмалчиваются, а попрошайки неосиляторы вроде тебя так и ноют спустя недели после его отвала.
Аноним 10/01/26 Суб 16:29:27 1485179 423
>>1485170
>D&D с ЛЛМками играть можно только сквозь пот, кровь и такие компромиссы, которые убивают идентичность настолок
Почему?
Аноним 10/01/26 Суб 16:30:34 1485182 424
>>1485165
И в чем тогда цель твоего поста? Выебнуться какой ты прошаренный? На анонимной борде? Лолд.

С какими же шизами сижу, хоспаде
Аноним 10/01/26 Суб 16:31:11 1485185 425
>>1485179
Они неспособны досконально следовать правилам D&D. ЛЛМ - это продолжалки текстов, статистические машины. В правилах любой редакции дынды настолько много нюансов, что, возможно, следовать им смогут только самые жирненькие модели и только при загруженном через RAG полном рулбуке, что сожрет немало контекста. На локалках я не уверен что вообще есть хоть один чел в треде, которому железо это позволит.
Аноним 10/01/26 Суб 16:31:31 1485186 426
>>1485152
>мне Эира хватит если не до конца жизни то очень надолго
>почти 200 дней запускаю и не заебался
Позер-показушник, я уже второй год сижу на мелкой немотроновй мистрали и не заебался. Вероятнее всего отупел, проебал килошку собственных нейронов, но не заебался.
Аноним 10/01/26 Суб 16:32:27 1485190 427
>>1485182
>И в чем тогда цель твоего поста? Выебнуться какой ты прошаренный?
Ну во первых да, позлорадствовать над теми кто не хочет задействовать даже 1% своего мозга, чтобы им самим стало интересно пользоваться инструментами что им доступны. Во вторых указать им на их проблему, вдруг среди ста болванов найдется один способный к мышлению и что-то поймет.
Аноним 10/01/26 Суб 16:33:20 1485192 428
>>1485146
Кому им? Кому нужно? Если тебе нужно - плати денежку за апи и "запускай" хоть на калькуляторе, сбор информации и eula в подарок.
>>1485152
> в чем секрет
Приспособился играть с этой моделью, обыгрывая сильные и обходя слабые стороны. Ну или играешь несложное что и просто так тянет. Моделька то не самая плохая, по первым ощущениям минимакс похуже будет.
>>1485165
> 46 карточек, чаров, сценариев
Поделись, не жадничай. Хочется каких-нибудь адвенчуров и депрессивных сеттингов.
во налетели то коршуны, не удивлюсь если 1.5 семена
> ясен хуй я ничем делиться не буду
А, ну хер тебе в рыло сраный урод тогда.
Аноним 10/01/26 Суб 16:35:32 1485195 429
>>1485192
>Приспособился играть с этой моделью, обыгрывая сильные и обходя слабые стороны.
Вот ты понял, ты молодец.
>Поделись, не жадничай.
>А, ну хер тебе в рыло сраный урод тогда.
Не обижайся. Ты понимаешь суть и рано или поздно когда будет вдохновение, сам себе напишешь хорошую карточку и все у тебя будет замечательно. Делиться не буду из принципа из-за уебанов попрошаек шитпостеров, которых давно надо бойкотировать всем тредом.
Аноним 10/01/26 Суб 16:38:55 1485200 430
1000012784.png 1164Кб, 1280x1270
1280x1270
>>1485192
> Приспособился играть с этой моделью, обыгрывая сильные и обходя слабые стороны. Ну или играешь несложное что и просто так тянет. Моделька то не самая плохая, по первым ощущениям минимакс похуже будет.
> > ясен хуй я ничем делиться не буду
> А, ну хер тебе в рыло сраный урод тогда.
Твоя очередь, кидай пресет
Аноним 10/01/26 Суб 16:39:22 1485202 431
Посоны, хочу поэкспериментировать с вайбкодингом. Хочется чтобы моделька умела в инструменты - написал промт и пусть она там сама, условно, неделю чего-нибудь делает: пишет код, тесты, запускает их, исправляет, дропает продовую бд. Есть ли возможность запустить какую-нибудь модельку на 16 гигах оперативы без видяхи, проц AMD Ryzen 7 5800U.
Аноним 10/01/26 Суб 16:40:03 1485204 432
>>1485195
> сам себе напишешь
Не, слишком лень, это прям особый вид вдохновения нужен. Более вероятность что запилю агентную систему, которая по опросу сочинит карточку. Или скорее полазию на уборщике/чубе по любимым тегам и перепишу что покажется уместным, или as is.
> Делиться не буду из принципа из-за уебанов попрошаек шитпостеров
Карточками? Сейчас бы заставлять каким-то поехавшим влиять на тебя, вместо глумления уже с них или какой-нибудь конфронтации, такое.
>>1485200
ChatML, Names: Never, Roleplay-simple.
Аноним 10/01/26 Суб 16:41:04 1485206 433
image 1866Кб, 2162x1668
2162x1668
>>1485195
Так такие как ты - и есть рак этого треда. Кто не приносит ничего полезного, не развивает интересных дискуссий, а только петушится.
Аноним 10/01/26 Суб 16:42:18 1485207 434
>>1485190
>во первых...
>во вторых...
Ну или ты просто чушка, которая себе оправдания на ходу придумывает. Пришел, попиздел снисходительно, и ушел обратно, ждать момента когда можно будет снова повыебываться. Уверен, ты никаких полотен с арксива и прочих помоек не читал, а смотрел уже на готовые пресеты и инструкции, переписывая их под себя. Но мозгов у тебя всё равно не хватает понять, что если бы у всех было такое отношение, ты бы щас дрочил в кулачок на дефолтных шалаф с онлика, а не нейронки гонял.
Аноним 10/01/26 Суб 16:42:55 1485209 435
>>1485204
Это не пресет, врунишка.
Аноним 10/01/26 Суб 16:46:43 1485214 436
cat-feeder-meme.png 129Кб, 498x414
498x414
>>1485206
> ты - и есть рак этого треда
> Кто не приносит ничего полезного, не развивает интересных дискуссий
А что, ты играешь в неймфажество и записываешь меня в кого-то? Я в свое время много чего приносил в тред, несколькими месяцами ранее. Потом понял что это никому нахуй не надо, умные люди и так разберутся а обрыганы будут обрыганами и дальше.
>>1485207
> Ну или ты просто чушка
Ору как трясет итт макак когда им нос утирают в их собственной беспомощности и нежелании хоть что-нибудь делать самому, а не ждать пока корм из кормушки на голову свалится. Усмевался над вами, усмехаюсь и буду дальше усмехаться.
Аноним 10/01/26 Суб 16:47:06 1485215 437
>>1485209
Из стандартных в таверне, я за минимализм, разве что написать что все допустимо и добавить разметку маркдауном для разделения сценария, карточки, персоналити, истории и отдельно суммарайза. И все равно на эйре не рпшу.
Аноним 10/01/26 Суб 16:51:04 1485219 438
>>1485214
>Потом понял что это никому нахуй не надо
Как ты это понял?
Аноним 10/01/26 Суб 16:51:51 1485220 439
>>1485214
>Ору как трясет итт макак когда им нос утирают в их собственной беспомощности
Не записывай других в трясунчики, трясунчик. Мне похуй на твои пресеты, просто ты чухан и пройти мимо тебя это оскорбление самого господа.
>нежелании хоть что-нибудь делать самому
Ты дохуя что-ли сам че-то сделал, лол? Пресетик написал? Маме похвастался уже, что заставил модельку про писик и сисик писать?
Аноним 10/01/26 Суб 16:55:30 1485223 440
>>1485214
>Я в свое время много чего приносил в тред
Я тоже, и большинству это было действительно не нужно. А кому нужно - взяли на заметку и пользуются. И я тоже пользуюсь некоторыми наработками других анонов.

Ты тут ПРИЗНАНИЯ своих заслуг ждешь? Чтоб тебе диферамбы пели? Повзрослей, пожалуйста, пчел.
Аноним 10/01/26 Суб 16:55:53 1485225 441
>>1485219
>Как ты это понял?
Легко и просто. Реально интересные пасты и шеры в треде редко генерируют здоровую дискуссию, в основном если это и происходит то по железкам, скоростям и инференсу, пожалуй это единственное продуктивное что в треде живет по сей день. В основном чем ни делятся все сводится к генерацию срачей и метанию горящего говна друг в друга, вот можешь посмотреть на товарища ниже >>1485220 с его
> Ты дохуя что-ли сам че-то сделал, лол? Пресетик написал? Маме похвастался уже, что заставил модельку про писик и сисик писать?
Вот такого в треде навалом, таким срать проще простого. Ну и всю ветку можно чекнуть, всего лишь предложение поиграться с промтом и реально раскрыть доступную им модель заагрило макак и они пошли в бой.
Аноним 10/01/26 Суб 16:56:53 1485228 442
image.png 404Кб, 1411x857
1411x857
image.png 126Кб, 546x688
546x688
Какое пресетовая война это уже по счёту?
Вот мой пресет на эир, можете скинуть свой, а можете не скинуть.
Аноним 10/01/26 Суб 17:03:28 1485233 443
image 30Кб, 941x234
941x234
>>1485214
>Ору как трясет итт макак
Трясунчик уже орёт из-за простого вопроса. Зачем вы так с ним, аноны? Самых лучших людей засираете, как обычно.
Аноним 10/01/26 Суб 17:06:39 1485239 444
Единственная здравая причина гейткипить что-либо - это личная выгода, например от этого зависит твой заработок.
Всё остальное - ресентимент, обида, злость, чувство величия, называйте как хотите, и спорить тут не о чем
Аноним 10/01/26 Суб 17:20:56 1485250 445
image.png 24Кб, 546x208
546x208
>>1485165
Очень показательно как срезонировал твой пост и сгенерил срач. Колко, едко, но все по факту. От того и затряслись жопы, что все они подсознательно понимают. Пока одни сидят, ждут своего Моисея, другие кайфуют от крутых моделей, потому что готовы немного работать на свою радость, а не ждать решения.
Аноним 10/01/26 Суб 17:21:57 1485251 446
>>1485250
Да съеби уже обтекать, трясло.
Аноним 10/01/26 Суб 17:24:17 1485253 447
>>1485228
> top_k 0
это значит бесконечное количество токенов или максимум 1 токен?
> temp 1
> top_p 1
чому так? это разве не убивает креативность?
Аноним 10/01/26 Суб 17:27:20 1485254 448
>>1485251
Я мимо, но съебу, ты только не трясись. К следующему перекату подготовь список тем и способов их изложения, одобренный вахтой, чтобы такого не возникало впредь.
>>1485253
Temp 1 - дефолт для креативных моделей, topk 0 и topp 1 не работают при таких значениях.
Аноним 10/01/26 Суб 17:31:24 1485259 449
>>1485254
А что сиквенс брейкерс делают?
Аноним 10/01/26 Суб 17:32:26 1485260 450
>>1485259
Нужны для семплера dry, не используются, если не используется он. Это набор исключений, чтобы по ним (например по разметке) не работал семплер.
Аноним 10/01/26 Суб 17:35:03 1485263 451
>>1485190
>вдруг среди ста болванов найдется один способный к мышлению и что-то поймет
Я понял, что ты долбоёб, а твои посты нужно сносить за неимением в них полезной информации.
>>1485195
>шитпостеров
Но ведь это буквально ты.
>>1485225
>в основном если это и происходит то по железкам, скоростям и инференсу
Потому что это объективные показатели. Поэтому и можно дискутировать с пруфами. А вывод моделей обсуждать смысла нет, для каждого он индивидуален.
>>1485239
Карточки некоторых персонажей нарушают пару законов РФ, поэтому на мылач их выкладывать не стоит.
Аноним 10/01/26 Суб 17:35:25 1485264 452
>>1485250
>потому что готовы немного работать на свою радость, а не ждать решения
Тут все, кроме совсем зеленых, пишут карты, инструкции и пресеты целиком под себя. Нет никакой отдельной прослойки вахтеров, которые мониторят треды 24 на 7 в поисках заветного файлика. Она существует только в голове шизов, которые пытаются найти хотя бы какой-то повод чтобы повыебываться, типа "смотрите, а я вот сам написал, правда-правда" словно перед матерью хвастаясь, что впервые посрали ровно в горшок, а не мимо на половицу.

Банально есть аноны которые мигрируют с одной модели на другую и просят показать примеры промтов или настроек, чтобы снова не ебаться несколько дней, подбирая более-менее оптимальные. Но в головах шизиков они да, не хотят "работать на свою радость"

>>1485254
>Temp 1 - дефолт для креативных моделей
Нет, не дефолт. Есть куча моделей, которые уже начинают дуреть при таких настройках и это касается не только васянских тюнов.
Аноним 10/01/26 Суб 17:39:58 1485267 453
>>1485263
> Карточки некоторых персонажей нарушают пару законов РФ, поэтому на мылач их выкладывать не стоит.

да просто напиши что она только выглядит на 8 лет, а на самом деле это 300летняя колдунья
Аноним 10/01/26 Суб 17:40:32 1485268 454
Ребята, а сильно квантование контекста в q8 влияет на РП?
Вот допустим возьмем Мистраль 24б Q4 без квантования контекста и Q5 с квантованием, объем контекста при этом одинаковый (пускай 40 или 57к). Будет ли разница хоть какая-то заметная по интеллекту и удержанию контекста моделью?
Аноним 10/01/26 Суб 17:43:13 1485274 455
>>1485041
квен 30b-a3b

есть у этой штуки какие-то популярные куминг-рп анценсоред миксы?
Аноним 10/01/26 Суб 17:43:41 1485275 456
>>1485268
А тут уже как карта ляжет. 40к контекста это уже много, и не факт что даже без квантования модель все вспомнит и учтет в ответе.
Аноним 10/01/26 Суб 17:43:52 1485276 457
>>1485268
>сильно квантование контекста в q8 влияет на РП
Выше шанс что модель проебет или перепутает то что происходило ранее.
>пускай 40 или 57к
Для мистралей это вообще пиздец, они столько контекста не держат. Там и без квантования уже каша начинается.
Аноним 10/01/26 Суб 17:45:06 1485277 458
>>1485264
>Есть куча моделей, которые уже начинают дуреть при таких настройках и это касается не только васянских тюнов.
Куча (целый Квен)

Всегда было так, что 1 - стандартное значение, которое при необходимости понижается, что гораздо более редкий случай. Выебнулся чтобы выебнуться?
Аноним 10/01/26 Суб 17:47:50 1485282 459
>>1485277
>Всегда было так, что 1 - стандартное значение
Где всегда так было? В твоей голове? Кроме квена еще есть мистрали, гемма, даже лама. Они креативно пишут при значениях и меньше единицы, снижая к тому же и шанс галлюцинаций.
Аноним 10/01/26 Суб 17:49:14 1485283 460
>>1485282
Ну в общем предлагаю тебе хуй пососать, че с тобой общаться.
Аноним 10/01/26 Суб 17:51:35 1485285 461
>>1485275
>>1485276
Вот что интересно: сама модель, квантованная в q8 - считается здесь чуть ли не эталоном качества (при том что большинство сидят на q4-q6). Но когда речь заходит о контексте - так сразу ФУ. По этой логике контекст в q8 должен быть неотличим от неквантованного.
Аноним 10/01/26 Суб 17:54:26 1485289 462
>>1485283
Вот такие люди еще и советы раздают, лол. Сами какую-то хуйню выдумали, поверили в нее, а потом пошли по треду разносить.

>>1485285
>когда речь заходит о контексте - так сразу ФУ
Потому что уже методом тыка давно выяснили, что квантование контекста до 8 бит ломает вывод кратно сильнее, чем квантование самой модели до той же точности.
Аноним 10/01/26 Суб 18:00:17 1485298 463
Аноним 10/01/26 Суб 18:05:08 1485301 464
17575690304760.mp4 2955Кб, 720x1280, 00:00:20
720x1280
>>1485289
>методом тыка
>чем квантование самой модели до той же точности
>имплаинг кто-то запускал оригинальные веса
Аноним 10/01/26 Суб 18:06:57 1485302 465
>>1485301
Ты не понимаешь. Там вот такие вот люди советы раздают, а тут он. Его правду принимаем сразу же.
Аноним 10/01/26 Суб 18:09:46 1485304 466
Какого мнение треда по ГЛМ 4.7? Два месяца в тред не заходил и походу это единственная новинка.
Аноним 10/01/26 Суб 18:12:28 1485306 467
>>1485267
Это тоже запрещено. И наоборот, одеть бабушку в школьную форму- это тоже ЦП. Так что зажимают со всех сторон.
>>1485277
>1 - стандартное значение
Для креатива. В программировании это 0,3.
>>1485285
Потому что модель квантуют с матрицами влажности и прочей хуетой, а контекст втупую обрезают биты.
Аноним 10/01/26 Суб 18:12:48 1485307 468
>>1485304
Говно.
Ни у кого тут нет рам чтобы запустить её в норм кванте
2 квантовых не слушай, они шизики
Аноним 10/01/26 Суб 18:13:12 1485308 469
>>1485301
Да, кто-то запускал оригинальные веса. Ты тоже можешь попробовать. Взять какую-нибудь небольшую гемму, запустить в оригинальных весах, потом в обрезанных, а потом сравнить качество ответов. Ну а потом заквантовать контекст и сравнить уже его. Уверен, ты именно это и сделаешь и докажешь нам, что мы не правы.
Аноним 10/01/26 Суб 18:15:21 1485309 470
>>1485307
Норм квант это по твоему сколько?
Аноним 10/01/26 Суб 18:16:49 1485312 471
Аноним 10/01/26 Суб 18:18:36 1485315 472
image 116Кб, 1544x645
1544x645
image 115Кб, 1510x681
1510x681
>>1485277
>Всегда было так, что 1 - стандартное значение
Стандартное (а точнее рекомендованное разработчиком) значение в 1 - это только для Геммы. Для Квена, например, рекомендуется 0,7, а для Мистраля - вообще 0.15.

Если модель МОЖЕТ писать с температурой 1, это ещё не значит что такое значение ОПТИМАЛЬНОЕ или СТАНДАРТНОЕ.

Скрины отсюда:
https://huggingface.co/Qwen/Qwen3-30B-A3B-Instruct-2507
https://huggingface.co/mistralai/Mistral-Small-3.2-24B-Instruct-2506
Аноним 10/01/26 Суб 18:18:37 1485316 473
>>1485309
Абсолютный минимум - это Q4 или 4.5bpw, все что ниже - очень сильно проседает, гораздо больше чем с 8bpw до 4.5. Лучше Q6 или 6bpw, дальше избыточно, ток если железо позволяет, но зачем
Аноним 10/01/26 Суб 18:26:34 1485327 474
Как же он пиарит p40
https://www.youtube.com/watch?v=kiTqXT1LE9Y
И ллм у него и SD и обучение на п40. Ну всем хороша.

Короче, пацаны, время сливать лежащие на полках p40
Аноним 10/01/26 Суб 18:35:18 1485344 475
>>1485316
Коупинг того, кто даже в 2 кванте запустить не может.
Как тот кто пересел с 2 кванта квена на 4 после апргрейда могу с уверенностью сказать - умнее оно конечно стало, но апгрейда не стоило. Апгрейда стоила возможность запускать глм в 2 кванте.
Аноним 10/01/26 Суб 18:40:59 1485356 476
>>1485344
Как тот кто сидит на 5 кванте эира я в жизни на квен не пересяду, особенно на 2 квант
ПЕРЕКАТ Аноним # OP 10/01/26 Суб 18:54:17 1485381 477
Вниманиеблядство, нюнепоиски, разборки, у кого пресет длиннее, оставляем в этом треде.

ПЕРЕКАТ

>>1485378 (OP)

ПЕРЕКАТ

>>1485378 (OP)

ПЕРЕКАТ

>>1485378 (OP)
Аноним 10/01/26 Суб 18:54:18 1485382 478
Аноним 10/01/26 Суб 18:56:44 1485394 479

Check this out!

Настройки X
Стикеры X
Избранное / Топ тредов