Главная Юзердоски Каталог Трекер NSFW Настройки

Искусственный интеллект

Ответить в тред Ответить в тред
Check this out!
<<
Назад | Вниз | Каталог | Обновить | Автообновление | 58 15 28
Локальные языковые модели (LLM): LLaMA, Gemma, Qwen и прочие №188 /llama/ Аноним 10/01/26 Суб 18:53:06 1485378 1
Llama 1.png 818Кб, 630x900
630x900
Эффективность к[...].png 92Кб, 1399x1099
1399x1099
Реальная длина [...].png 671Кб, 1602x2476
1602x2476
17643474676820.png 1458Кб, 1280x960
1280x960
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!

Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.

Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.

Вниманиеблядство будет караться репортами.

Официальная вики треда с гайдами по запуску и базовой информацией: https://2ch-ai.github.io/wiki/llama/

Инструменты для запуска на десктопах:
• Отец и мать всех инструментов, позволяющий гонять GGML и GGUF форматы: https://github.com/ggml-org/llama.cpp
• Самый простой в использовании и установке форк llamacpp: https://github.com/LostRuins/koboldcpp
• Более функциональный и универсальный интерфейс для работы с остальными форматами: https://github.com/oobabooga/text-generation-webui
• Заточенный под Exllama (V2 и V3) и в консоли: https://github.com/theroyallab/tabbyAPI
• Однокнопочные инструменты на базе llamacpp с ограниченными возможностями: https://github.com/ollama/ollama, https://lmstudio.ai
• Универсальный фронтенд, поддерживающий сопряжение с koboldcpp и text-generation-webui: https://github.com/SillyTavern/SillyTavern
• Альтернативный фронт: https://github.com/kwaroran/RisuAI

Инструменты для запуска на мобилках:
• Интерфейс для локального запуска моделей под андроид с llamacpp под капотом: https://github.com/Mobile-Artificial-Intelligence/maid
• Альтернативный вариант для локального запуска под андроид (фронтенд и бекенд сепарированы): https://github.com/Vali-98/ChatterUI
• Гайд по установке SillyTavern на ведроид через Termux: https://rentry.co/STAI-Termux

Модели и всё что их касается:
• Актуальный список моделей с отзывами от тредовичков: https://rentry.co/2ch_llm_2025 (версия для бомжей: https://rentry.co/z4nr8ztd )
• Неактуальные списки моделей в архивных целях: 2024: https://rentry.co/llm-models , 2023: https://rentry.co/lmg_models
• Миксы от тредовичков с уклоном в русский РП: https://huggingface.co/Aleteian и https://huggingface.co/Moraliane
• Рейтинг моделей по уровню их закошмаренности цензурой: https://huggingface.co/spaces/DontPlanToEnd/UGI-Leaderboard
• Сравнение моделей по сомнительным метрикам: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard
• Сравнение моделей реальными пользователями по чуть менее сомнительным метрикам: https://chat.lmsys.org/?leaderboard

Дополнительные ссылки:
• Готовые карточки персонажей для ролплея в таверне: https://www.characterhub.org
• Перевод нейронками для таверны: https://rentry.co/magic-translation
• Пресеты под локальный ролплей в различных форматах: https://huggingface.co/Virt-io/SillyTavern-Presets
• Шапка почившего треда PygmalionAI с некоторой интересной информацией: https://rentry.co/2ch-pygma-thread
• Официальная вики koboldcpp с руководством по более тонкой настройке: https://github.com/LostRuins/koboldcpp/wiki
• Официальный гайд по сопряжению бекендов с таверной: https://docs.sillytavern.app/usage/how-to-use-a-self-hosted-model/
• Последний известный колаб для обладателей отсутствия любых возможностей запустить локально: https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing
• Инструкции для запуска базы при помощи Docker Compose: https://rentry.co/oddx5sgq https://rentry.co/7kp5avrk
• Пошаговое мышление от тредовичка для таверны: https://github.com/cierru/st-stepped-thinking
• Потрогать, как работают семплеры: https://artefact2.github.io/llm-sampling/
• Выгрузка избранных тензоров, позволяет ускорить генерацию при недостатке VRAM: https://www.reddit.com/r/LocalLLaMA/comments/1ki7tg7
• Инфа по запуску на MI50: https://github.com/mixa3607/ML-gfx906
• Тесты tensor_parallel: https://rentry.org/8cruvnyw

Архив тредов можно найти на архиваче: https://arhivach.hk/?tags=14780%2C14985

Шапка в https://rentry.co/llama-2ch, предложения принимаются в треде.

Предыдущие треды тонут здесь:
>>1480267 (OP)
>>1475911 (OP)
Аноним 10/01/26 Суб 18:56:05 1485391 2
>>1485304 →
Смысла обновляться с GLM 4.6 нет, улучшений в плане РП не замечено. Вроде как должны быть улучшения в плане агентности и кодинга, но тоже вилами по воде.
Аноним 10/01/26 Суб 18:56:17 1485392 3
Бастеон треда: пресеты это миф
Аноним 10/01/26 Суб 19:10:59 1485426 4
тред затих в ожидании пресетов
Аноним 10/01/26 Суб 19:58:00 1485479 5
>>1485316 →
Ну, я не согласен, по крайне мере для моделек от 4 до 15B.
Разницы между fp16 и 4.5 я не замечаю в принципе. При 4.0 оно отвечает "по другому" это заметно, но это ни разу не хуже. При 3.5 проблемы минимальные и лишь при 3.0 едет круша заметно. Во всех случаях эмбеддинги оставлял в fp16. Честный тест по перплексити, дивергенции и чего там ещё насоветовали пока не доделал.
Я про честный bpw всего кроме эмбеддингов, то есть Q3_K_M это выше чем 3.0 и я нахожу его вполне юзабльным.
Аноним 10/01/26 Суб 20:51:52 1485553 6
>>1485479
>Во всех случаях эмбеддинги оставлял в fp16.
А как квантануть самому из исходника чтобы оставить эти компоненты в нетронутом виде?

Вроде все кто кванты задивает сжимают все слои. Или есть кто делает так?
Аноним 10/01/26 Суб 21:00:01 1485574 7
>>1485426
сам сделай, хуле.
>>1485479
>Q3_K_M
сто тыщ раз писали, ниже 4 кванта в 12b жизни нет, хуле вы. Я сомневаюсь, что 24b жизнеспособен на q3, а вы насилуете беднягу.

Ну все, базу обсудили, давайте теперь о чем-то интересном поговорим.
Аноним 10/01/26 Суб 21:32:51 1485609 8
>>1485553
Если через llama-quantize, то в параметры дописать --tensor-type token_embd\.weight$=f16 (или bf16)
Название слоя эмбеддингов может быть иным, но почти всегда такое.

Ещё можно отредактировать существующий gguf подменив только один из слоёв, но это уже иди у дипсика или кими спроси, они ответят быстрее и точнее. Это если ты какой-то Q3_K_XL кастомный хочешь попробовать.
Аноним 10/01/26 Суб 21:33:38 1485612 9
И ещё держите в голове, что возможно это моя шиза и я предвзят, а на самом деле квантования эмбеддинга влияет слабее, чем мне хотелось бы.
Аноним 10/01/26 Суб 21:39:40 1485618 10
Пиздец чё вы тут обсуждаете, я это изобрёл, я то, а у меня такие карточки шишка стоит только от мыслей как я их выбираю в таверне. Третий vLLM настроил и пиздит будто сам его написал с нуля за ночь. И постоянно эти локальные шизи друг другу нализывают
Аноним 10/01/26 Суб 21:47:28 1485627 11
>>1485618
ага, не то, что общегадюшник, где все обсуждения сводятся к тому, кто круче - клод или гемини. Как и срачи. Не говоря о карточках, в которых водят клода с гемини.
Аноним 10/01/26 Суб 21:50:51 1485633 12
>>1485609
>Q3_K_XL
Спасибо. То есть на 4-6 квантах такие махинации не дают ощутимого выйгрыша?
Аноним 10/01/26 Суб 22:06:43 1485651 13
>>1485574
>сто тыщ раз писали, ниже 4 кванта в 12b жизни нет, хуле вы. Я сомневаюсь, что 24b жизнеспособен на q3, а вы насилуете беднягу
24B работоспособен, но еле-еле. Буквально пограничное состояние с полной шизой. Сидел пару недель, пока p104-100 ждал к 3060, чтобы потом Q4 и Q5 запускать на них. Успел по сравнивать - или Q3 но быстро, или Q4 но медленно. :) Разница весьма заметна, но в первую очередь - детали контекста проёбываются, текущий ответ на последний запрос сам по себе - практически не страдает. Но если там обращение к "что было раньше" - туши свет.
Аноним 10/01/26 Суб 22:07:00 1485652 14
Аноны что лучше Tesla р100 16Гб или p40 24Гб, какие подводные?
Аноним 10/01/26 Суб 22:10:58 1485657 15
>>1485651
Анон, проверь, пож, Qwen RpR-v4-Fast-30B-A3B, чисто на p104 и на 3060, где скорость выше будет? У меня 3060 меньше токенов дает, не пойму в чем дело
Аноним 10/01/26 Суб 23:11:42 1485710 16
>>1485378 (OP)
Дайте промт/семплееры для геммы 27b, пожалуйста.
Аноним 10/01/26 Суб 23:20:40 1485717 17
>>1485657
Т.к. это MOE, и в отдельную карту она не влезет - такая проверка ничего не даст сама по себе, т.к. скорость будет зависеть и от остального железа. И от того, как именно грузить части модели. У меня первые попытки грузить Qwen30b-a3b давали около 25T/s на пустом контексте, а пошаманив с выгрузкой разных тензоров я ~40 выжал. На двух картах вместе, в кобольде.
Аноним 10/01/26 Суб 23:21:59 1485719 18
image 649Кб, 2210x1658
2210x1658
Базашиз, оправдывайся.
Аноним 10/01/26 Суб 23:29:50 1485726 19
>>1485719
Занимательная картинка. Если дипсик весит 671 гигабайт, то сколько же там параметров? Может от их количества тоже чет зависит? хз.
Аноним 10/01/26 Суб 23:33:45 1485727 20
>>1485327 →
> у него и SD и обучение на п40
Больной ублюдок. Интересно, просто хайп собирает или хочешь стимулировать продажи запасов?
Вспоминаем барыг, которые их сами закупали чтобы продать по 30+, улыбаемся.
>>1485612
> на самом деле квантования эмбеддинга влияет слабее, чем мне хотелось бы
Да, за исключением микромоделей там разница минимальная. Чтобы получить деградацию от квантования в целом, нужно или оценивать метрики, или прогонять какие-либо бенчи в нормальном масштабе. Просто в рп чате, учитывая рандомайзер ответов в целом, разницу можно и не заметить, а то и вообще наоборот искаженные выводы получить.
Но в целом вывод о том, что большинство сеток можно квантовать до 4-5 бит и не испытывать серьезных проблем справедлив.
>>1485652
V100
Аноним 11/01/26 Вск 06:22:58 1485909 21
В прошлом треде посоветовали чатмл, я поставил и ответы стали короткими, 100-200 токенов когда стоит 400.
Почему так? Еще генерация как бы продолжается, но текст не идёт, я баг словил или что? Перезапуск не помогает
Аноним 11/01/26 Вск 06:31:33 1485910 22
>>1485909
> 100-200 токенов когда стоит 400
Где стоит? Заставить выдавать нейронку строгое количество токенов ты можешь только включив игнор eos и токен лимит. Просто токен лимит будет только резать при попытке вылететь за него
Аноним 11/01/26 Вск 06:33:18 1485911 23
>>1485909
>Почему
В ответ на : я ебу
Ты получаешь : да, ты ебешь.
Семплеры посмотри, бака.
Аноним 11/01/26 Вск 07:10:14 1485919 24
>>1485909
Что значит "стоит 400"?

Сетки почти все не умеют учитывать лимит, они генерируют по своему разумению, а генерация прекращается когда сетка выкидывает "стоп-токен".
Лимит может посреди генерации обрезать текст, и всё. Если ты с одинаковым сидом погенерируешь с лимитом 10000 и 50 - начало будет одно и то же в обоих случаях.
Самый универсальный и умерено надёжный способ, если ты сетке в промте скажешь "отвечай кратко" или "ответь за 50 слов".
Если ты хочешь в каждом ответе свою длительность, то это надо в системном промте договориться с сеткой, что ты получаешь сообщения в формате <limit=400, text="...">, где limit нужно интерпертировать как ожидаемая длина ответа. Но это надой свой UI писать какой-то для этого с ползунком, или чуть править бекэнд, чтобы он все сообщения оборачивал в такой вид, причём лимит который обычно выставляется был без ограничений, а тот что получен от UI вставлять в такой json.
Аноним 11/01/26 Вск 07:10:43 1485920 25
>>1485911
> В ответ на : "текст любой креативности и длины"
> Ты получаешь : "да, ты ебёшь"
Пофиксил
Аноним 11/01/26 Вск 08:05:07 1485931 26
>>1485909
>Еще генерация как бы продолжается, но текст не идёт
Смотри в консоль кобольда. Возможно, открылся какой-то тег, который таверна обрезает.
Аноним 11/01/26 Вск 08:31:09 1485956 27
В общем пока вернусь на пресет от гичан и выставлю короткий промпт.
Всё же пиздец странно на чужом для модели темплейте сидеть, на котором её не тренили и бенчи все тоже на глм были
Аноним 11/01/26 Вск 09:10:36 1485978 28
>>1485956
О, свет моих очей, о нерешительный анон. Скажи, сейчас в эпоху гопоты, клода и прочей срани. Что вызывает у тебя проблемы с ГЛМ ?
Context Template? Ты можешь, блять, просто скинуть ему что у тебя и попросить это объяснить.
Если у тебя проблемы с SystemPromt. То.. эмм.. Экспериментируй. Ну вот условно - пробуй, модель нерешительная. Значит надо добавить указаний по продвижению нарратива. Не нравится слайсовость, добавть ГРИМДОРКА, только будет осторожен со всякими cruel. Не используй терминологию в духе do not (лучше avoid тогда уж)

>чужом для модели темплейте
Это не так работает, если кратко. Откуда вы вообще эту хуйню в тред тащите?


Я обожаю уборщика просто за годнейшие идеи.
Скайнет посылает киборга в прошлое чтобы закуколдить тебя.
Кукинатор
Не знаю почему, но я орал с этого как ебанутый.
Аноним 11/01/26 Вск 10:07:45 1486005 29
>>1485710
>Дайте промт/семплееры для геммы 27b, пожалуйста.
Gemma 3 Presets for Silly Tavern
https://pixeldrain.com/l/Hoeb83g8

Некоторые штуки там с выходом normpreserved устарели.
Но там уж под себя подрихтуешь.
Аноним 11/01/26 Вск 11:26:07 1486051 30
a6a7a73c12b477f[...].jpg 138Кб, 1000x842
1000x842
Почему с пустым промтом 235блядь работает лучше чем с ним.
За что мне это всё...
Аноним 11/01/26 Вск 11:29:45 1486055 31
>>1485919
>Сетки почти все не умеют учитывать лимит, они генерируют по своему разумению
Ну не знаю, я когда пишу в карточке: "Ответ не должен превышать 1000 токенов" модели (разные) как правило это учитывают. Я люблю и поощряю полотна текста, так что не в том дело, что им нечего сказать.
Аноним 11/01/26 Вск 11:59:28 1486071 32
>>1486055
токены сетки действительно считать не умеют, а вот слова - могут
по крайней мере квены
Аноним 11/01/26 Вск 12:41:09 1486100 33
>>1485909
На кобольде и студии были такие же проблемы, на жоре с пресетами нюни - нет.
>>1485931
Я кстати смотрел в консоль студии, ничего криминального так и не нашёл. Но поскольку никто больше с таким не сталкивался, то забил. А теперь и вовсе не актуально.
Аноним 11/01/26 Вск 12:59:02 1486119 34
Я уже инстинктивно знаю печатая ответ на что глм будет срать эхом 10 свайпов а что пропустит
И каждый раз угадываю, будто общаюсь с 8б лоботомитом, одна реакция абсолютно
Аноним 11/01/26 Вск 13:14:17 1486129 35
Вы давайте прекращайте дурить новичков и советовать им промпт в одну строчку, в первый раз было смешно, во второй не очень, но щас спустя столько месяцев уже вонища в треде от этой шутки.
Очевидно если ты гигашлепа от мира ллм тебе вообще промпт не нужен, у тебя пиздатая карточка где всё нужное уже есть и в голове знание как писать много и что модели нужно а что нет.
У новичка такого нет, он просто будет выдавать "Я вынул член до колен и наступил жесткий секс" и получать хуевые ответы с коротким промптом, большой промпт как бы делает всю работу за тебя выдавая больше описаний, которые модель потом подхватит и ответы в одну строчку уже не так сильно навредят
Аноним 11/01/26 Вск 13:27:10 1486137 36
>>1486129
Хуйню несёшь, дружыше. Есть модели которые разваливаются от больших промтов, им похуй новичок ты или нет.
Аноним 11/01/26 Вск 13:29:06 1486139 37
>>1486129
>Очевидно если ты гигашлепа от мира ллм тебе вообще промпт не нужен
Да я вообще не стебусь, я в первый раз вижу, чтобы модели было похуй SP. Ну не похуй, но от его наличия выдача становилась хуже. Это какой то ебанный абсурд и причем это только на квене работает.
Я могу это запруфать. Префила для него достаточно, ну для атмосферы. Просто общими мазками задаешь сеттинг и как НАЧИНАЕШЬ ПРИКЛЮЧАТЬСЯ.
Аноним 11/01/26 Вск 13:36:08 1486143 38
>>1486139
сторителлер-лайт на ~350 токенов который
идеально, и ничего лучше пока не было
Аноним 11/01/26 Вск 15:13:33 1486192 39
https://developer.nvidia.com/blog/optimizing-inference-for-long-context-and-large-batch-sizes-with-nvfp4-kv-cache/

Дублирую из прошлого треда.
Если 4-бита плюс-минус достаточно, и их завезут на аппаратном уровне, так то кванты не нужно будет деквантовать на каждом слое в fp8/fp16/fp32/tf32 - то это по идее х2 минимум даст за счёт сокращения числа инструкций. И ещё х2 за счёт того, что 4-битная операция меньше транзисторов требует.

Кремниевые мозги пишут, что 5090 уже содержит нужные ядра, необходимые для этого nvfp4, и то есть на любой 5090 это заведётся.

Вот бы 6090 была хотя бы с 64 ГБ памяти, 4-way nvlink, и съёмным охлаждением, чтобы можно было башни поставить...
Аноним 11/01/26 Вск 15:24:34 1486197 40
LTX-200034.mp4 509Кб, 832x448, 00:00:06
832x448
Какой же фан
Аноним 11/01/26 Вск 15:56:09 1486223 41
>>1486119
>будто общаюсь с 8б лоботомитом
Ну так почти так и есть. С 12б. Каждый раз проигрываю с этих "удивительных" открытий.
Аноним 11/01/26 Вск 16:23:47 1486241 42
IMG202601111618[...].jpg 120Кб, 1280x960
1280x960
IMG202601111618[...].jpg 121Кб, 1280x960
1280x960
IMG202601111618[...].jpg 108Кб, 1280x960
1280x960
Господа, я наконец-то под конец длинных праздников решил разобраться с компом, поменял мать и залез в свою турбинную v100.
Если есть упоротые, кои таки решатся брать аналогичную, прошу обратить внимание на отсутствие термопрокладок вообще - память и микросхемы рядом не охлаждаются.
И на самом гпу хз какое говнище намазано.
Понятно, почему всё моментально уходило в троттлинг.
Аноним 11/01/26 Вск 16:26:25 1486243 43
>>1486241
> память
Память на одной подложке с чипом, с ней все ок, а вот прокладки на мосфеты крайне желательны. Хз триггерят ли они тротлинг, но радиатор выглядит микроскопическим и ужасно неэффективным.
Аноним 11/01/26 Вск 16:27:34 1486245 44
>>1486241
> всё моментально уходило в троттлинг
Нужно было просто не выкобениваться и брать стандартную sxm2 башню под 4u
Аноним 11/01/26 Вск 16:37:27 1486254 45
>>1485719

Картинка доказывает древний тезис что для крупных моделей понижение кванта не столь понижает качество и в случае дипсика - 3 бит на 99% сохраняет качество 16 бит модели. Но уже на 2 бит падение качества по сранению с 3 бит составляет ~15%, а на 1 бит - 30%. Но в целом это также доказывает другой древний тезис - что если модель заметно лучше/больше другой в 16 бит, то лучшая модель и в 2-3 битах будет лучше худшей иодели в 16 бит и потому использовать более высокий квант худшей модели никогда не имеет смысла.
Аноним 11/01/26 Вск 17:00:36 1486270 46
>>1486245
Возможно я в конце-концов приду к этому от безысходности, но пока у меня по плану поставить термопрокладки и сделать новый кожух под нормальный кулер вместо турбины, исходя из имеющегося места в корпусе.
Но в целом да, всем остальным я бы рекомендовал именно вариант с родным радиатором и длинным райзером, а видюху положить на днище корпуса.
Аноним 11/01/26 Вск 17:20:41 1486275 47
image 2374Кб, 1284x1285
1284x1285
Аноним 11/01/26 Вск 17:21:01 1486276 48
950f05fd3526c97[...].png 2442Кб, 2000x3000
2000x3000
>Сидят в треде локальных моделей и топят за опен сорс
>Сами не спешат делиться пресетами и находками
Почему так?
Аноним 11/01/26 Вск 17:21:04 1486278 49
Помните, я грешил на райзер? Так вот, это не райзер, это одна из карт отвалилась. Сейчас сел диагностировать, перебрал конфиги, и вот выяснилось. Мда, 78к за б/у на яшамаркете.
Аноним 11/01/26 Вск 17:40:12 1486297 50
Аноним 11/01/26 Вск 17:41:56 1486300 51
>>1486278
А что за карточка развалилась? 3090?

Я потому и подумал, что лучше V100 наберу. Устаревшие, да, но они по пять лет 24/7 могут работать и для этого проектировались, а вот потребительские карты вряд ли рассчитывались больше чем на год чистого времени работы...
Но это не точно всё, само собой.
Аноним 11/01/26 Вск 17:46:13 1486303 52
>>1486278
Рассказывай подробности.
Аноним 11/01/26 Вск 17:48:00 1486305 53
изображение.png 50Кб, 816x722
816x722
>>1486300
>А что за карточка развалилась? 3090?
Она. ИЧСХ, в киберпуке 10 минут норм, а в осст сразу вырубилась. Как и в нейронках.
>они по пять лет 24/7 могут работать и для этого проектировались
Но ведь они эти 5 лет уже отпахали два раза...
Аноним 11/01/26 Вск 18:01:32 1486315 54
изображение.png 688Кб, 2283x1351
2283x1351
>>1486303
>>1486305
Да какие там подробности. Сидел пердел, начались вылеты нейронок, мигание экрана, зависание ПК. Нашёл виновника.
На поверлимите в 28% пока работает, лол.
Аноним 11/01/26 Вск 18:06:54 1486320 55
изображение.png 148Кб, 1078x1504
1078x1504
>>1486315
Кстати, ведь я же спрашивал, где бы посмотреть ошибки псины. А вот же они, в ОССТ, теперь понятно, как райзеры на вшивость проверять.
Аноним 11/01/26 Вск 18:08:56 1486322 56
>>1486305
>>1486315
Питание проверяй. Подобные проявления проблем с чипами - крайне редкие, зато питания, причем скорее всего даже не врм а внешнее - оно.
>>1486320
> где бы посмотреть ошибки псины
Куча ответов про это было.
Аноним 11/01/26 Вск 18:11:48 1486326 57
>>1486322
> Подобные проявления проблем с чипами - крайне редкие
Да банально карточку жарили в майнинге
Аноним 11/01/26 Вск 18:14:04 1486332 58
>>1486322
>Питание проверяй.
Платиновый сисоник на 1600 ватт. Хуй его знает что в этой вселенной надёжнее. Да и другие карты не жалуются.
А вот ВРМ карты может быть, надо разбирать и смотреть. Я правда в этом полный ноль, даже мультиметра нет, чтобы с умным видом щупом потыкать.
>Куча ответов про это было.
Ни одного упоминания ОССТ не помню. Были советы ставить люнупс да замерять по замедлению. Ладно, может я и забыл.
>>1486326
Офк, других на рынке нету. Сам я грешу на врам, он больше всего страдал в майнинге, те же чипы на спине карты нихуя не охлаждались. Да и в нейронках как раз тоже память больше жарится.
Настройки X
Ответить в тред X
15000
Добавить файл/ctrl-v
Стикеры X
Избранное / Топ тредов