Как кто то сидит в таверне после смерти свинореза? Я не верю что кому то нравится читать безжизненный слоп гемини литери худшая сетка, одни негативные эмоции. Может ньюфажки ещё схавают, но тредовички...
Почему при апскейле уродуется картинка? пробовал разные апскейлеры, уродуется одинаково. 0.4 порог, но апскейл уже тухлый какой-то получается. это может зависеть от количества слов в промте?
Короче сетки эти ваши тупые пиздец. По сюжету моего рп два долбаеба сговариваются подсыпать постояльцу снотворное в сок, чтобы спиздить у него кое-какие важные бумаги. Но все идет не по плану. Одна тян, которая на ужине сидит рядом с постояльцем, обжигает язык супом, и он любезно предлагает ей свой сок. Два долбоеба при этом сидят с ними за одним столом. Тян подносит стакан к губам и в этот момент, когда от долбаебов должна последовать реакция (ну там, шок, недоумение, нервные переглядывания), не происходит нихуя. Они тупо сидят дальше и продолжают ждать, когда постоялец выпьет свой сок. Хотя тян его уже выпила. Я проверил со всеми сеткам, ни одна не доперла. Клодик только пукнул чето вроде ай бля, все пошло не плану, но гореотравители почему-то при этом ржали, как будто им норм и так и задумано. Как вы отыгрываете с этим говном не понимаю, если они не могут сориентироваться даже в таком примитивном сюжетном повороте.
Локальные языковые модели (LLM): LLaMA, Gemma, DeepSeek и прочие №122 /llama/
Аноним13/04/25 Вск 03:04:05№1149538Ответ
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст, бугуртим с кривейшего тормозного говна и обоссываем калотарок.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
>>1159884 > советовался с гопотой на тему чипсета на ам4, по тз Вот такого никогда нельзя делать. Нейронка не усваивает нормально эту информацию, все перепутает, но по обрывкам копипаст что попали в датасет сочинит правдоподобно выглядящий бред. Считай что тебе повезло. > водянка-крута Хорошая - действительно круто, просто клепают ужасный ширпотреб, который уступает башням. > бери Асус Геймер Нагибатор Матьебатор Туф Пуф Защекуф вордофтанкс эдишон за цену жигуля. Пздц. Абсолютный пиздец. >>1159886 Спасибо за отзыв, значит лучше пока не обновляться на эти дрова.
>>1159885 Ну значит ремонтники хуи, у них стата искажена. А надо слушать 15 анончиков, каждый из которых красавец, миллионер и владелец 10 полностью рабочих 3090, во всяком случае на словах
>>1159666 Так у тебя и так что-то там есть что описывает, нахуя ты ещё и это добавил-то, да ещё и СОННЕТУ блять, когда речь о гемини? Дай дураку стеклянный хуй...
>>1157831 чтож поделать альцгеймер часто бывает неизлечим да не я его создал не мне с ним теперь бороться всех не спасешь. вколи очередную дозу слопа и радуйся главное в жизни быть счастливым остальное неважно даже если счастье для тебя жрать говно
>We will also begin deprecating GPT‑4.5 Preview in the API, as GPT‑4.1 offers improved or similar performance on many key capabilities at much lower cost and latency. 4.5 брос?...
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст, бугуртим с кривейшего тормозного говна и обоссываем калотарок.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
Под БАЗУ нейрогенерации уже созданы номерные треды SD и WD+NAI. Меж тем, это всего несколько моделей, тогда как только на Фэйсе их более 112 тысяч. Этот тред для тех, кто копнул хоть немного глубже: необязательно до уровня обскурщины, выпиленной даже из даркнета, а просто за пределами того, что удостоилось своих тредов. ИТТ делимся находками и произведенными результатами.
>>1147735 обозначь в префиле что больше не будет лишних комментариев(не рекомендую) лучше перед мемо напиши сценарий остановлен для скрытой напоминалки, и после мемо пиши сценарий возобновили. если и так будет протекать то во первых у тебя куча лишней хуйни в пресете и сетка тупит, во вторых используй то что я написал про префил. должно помочь
Какой вариант лучше? 1) Задонатить $8 на crushonai и получить готовый к использованию Claude 3.7 с 16К контекстом 2) Запердолится с gemini-2.0-flash отправляя запросы напрямую через гугл апи, выключив все safetySettings. У него 1 миллион контекста. Кто из них умнее и меньше зацензурирован?
Локальные языковые модели (LLM): LLaMA, Gemma, DeepSeek и прочие №120 /llama/
Аноним06/04/25 Вск 19:30:33№1134362Ответ
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст, бугуртим с кривейшего тормозного говна и обоссываем калотарок.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
>>1142695 > просто чархаб у меня лично только под впном открывается( Забавно. У меня по короткой ссылке не открывается вообще, по длинной - работает с большим скрипом, практически не загружая превью картинок. Мне вообще гораздо больше нравится https://character-tavern.com/ Почему-то у многих тематических сайтов совсем уродливый интерфейс.
>>1134362 (OP) Что есть для управления временем в чате? Хочу, чтобы была например дата когда начинаются события и другие определенные даты были тригерами для других событий. При этом, чтобы были таймскипы, типо персонаж А попал в тюрьму, там пару дней идет сюжет и дальше таймскип пару лет, дальше сюжет, дальше таймскип и на свободу. Или гиблое дело надеяться что время не проебеться? Нашел только такого бота https://www.characterhub.org/characters/Ayrtony/timey-the-clock-bot-b13e731c9070