Главная Юзердоски Каталог Трекер NSFW Настройки

Искусственный интеллект

Создать тред Создать тред
Check this out!

Генерация откровенного NSFW-контента на доске /nf/

<<
Каталог
Вопросов кожаных мешков тред Аноним 14/05/23 Вск 11:27:57 299474 Ответ
fde636c44dae155[...].jpg 294Кб, 1000x600
1000x600
Если вы хотите задать какой-то мелкий вопрос - используйте для этого данный тред или найдите профильный треде в каталоге.

Утонувшие треды помещаются в архив.
О разделе:
1. Доска предназначена для любых обсуждений нейросетей, их перспектив и результатов.
2. AICG тред перекатывается после достижения предела в 1500 постов.
3. Срачи рукотворное vs. ИИ не приветствуются. Особо впечатлительные художники и им сочувствующие катятся в собственный раздел => /pa/. Генераций и срачей в контексте всем известных политических событий это тоже касается, для них есть соответствующие разделы.
4. Это раздел преимущественно технического направления. Для генерации откровенного NSFW-контента без технического контекста выделена отдельная доска - /nf/. Эротика остаётся в /ai/. Голые мужики - в /nf/. Фурри - в /fur/. Гуро и копро - в /ho/.
5. Публикация откровенного NSFW-контента в /ai/ допускается в рамках технических обсуждений, связанных с процессом генерации. Откровенный NSFW-контент, не сопровождающийся разбором моделей, методов или описанием процесса генерации, размещается в /nf/.
Пропущено 1483 постов
263 с картинками.
Пропущено 1483 постов, 263 с картинками.
Аноним 15/10/25 Срд 19:24:05 1387974
КАК ЖЕ ДИПКОК ОТУПЕЛ. ПРОСТО АХУЕТЬ
а так же стал скудным на слог

еще часто на англ отвечать начал
Аноним 15/10/25 Срд 20:17:07 1388020
Аноним 15/10/25 Срд 20:18:25 1388024
Первый отдельный SORA 2 - тред /sora/ Аноним 15/10/25 Срд 23:19:28 1388259 Ответ
17604684811050.mp4 3465Кб, 1280x704, 00:00:10
1280x704
17604889209500.mp4 4766Кб, 704x1280, 00:00:10
704x1280
17604740148860.mp4 9510Кб, 1280x704, 00:00:10
1280x704
17603928486160.mp4 488Кб, 576x1048, 00:00:10
576x1048
Экспериментальный.В перспективе будет реформирован в "Тред онлайн-видео генераций"
Создан с разрешения завсегдатаев раздела
>>1388146 → >>1388111 →


Как вкатиться?
1) Зайти на https://sora.com с ОБЯЗАТЕЛЬНО ТОЛЬКО IP США или Канады (!).
2) Зарегать аккаунт, если еще нет. Лучше использовать нормальную Gmail почту.
3) Ввести инвайт код.
4) Генерировать, скидывая годноту в тред.

Где взять инвайт код?
Либо на сторонних площадках по типу @sora_invite_bot в тг, в коментах канала n2d2ai либо ждать подачки от добрых анонов. После ввода инвайт кода вам дадут от 0 до 6 новых для приглашения кого-то еще по цепочке.

Как промптить?
https://github.com/daveebbelaar/ai-cookbook/blob/main/models/openai/08-video/docs/sora2-prompting-guide.md
https://cookbook.openai.com/examples/sora/sora2_prompting_guide

Как обойти цензуру?
1) Пробовать менять фразы, имена и в целом промпт. Описывать персонажей без личных имен чтобы не триггерить копирайт.
2) Роллить. Иногда из двух одинаковых реквестов подряд один цензуруется, а другой нет.

Какой лимит?
Одновременно на одном аккаунте можно генерировать до 3 видосов. В день не более 30 штук.
Пропущено 61 постов
50 с картинками.
Пропущено 61 постов, 50 с картинками.
Аноним 16/10/25 Чтв 00:58:06 1388433
>>1388419
>перекатился из /b/
Кстати, очень изящный способ позвать незашоренных анонов. Автору респект.
Аноним 16/10/25 Чтв 01:00:25 1388437
20251016035001k[...].mp4 5221Кб, 1280x704, 00:00:10
1280x704
20251016035001k[...].mp4 4922Кб, 1280x704, 00:00:10
1280x704
20251016035001k[...].mp4 5271Кб, 1280x704, 00:00:10
1280x704
билять, тут ограничение 20Мб
Аноним 16/10/25 Чтв 01:01:09 1388438
20251016035201k[...].mp4 5877Кб, 1280x704, 00:00:10
1280x704
20251016035201k[...].mp4 6227Кб, 1280x704, 00:00:10
1280x704
20251016035201k[...].mp4 6318Кб, 1280x704, 00:00:10
1280x704
Локальные языковые модели (LLM): LLaMA, Gemma, DeepSeek и прочие №172 /llama/ Аноним 14/10/25 Втр 21:23:00 1387128 Ответ
Llama 1.png 818Кб, 630x900
630x900
Эффективность к[...].png 92Кб, 1399x1099
1399x1099
Реальная длина [...].png 671Кб, 1602x2476
1602x2476
131832113p0.png 7164Кб, 3035x5277
3035x5277
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!

Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.

Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.

Официальная вики треда с гайдами по запуску и базовой информацией: https://2ch-ai.gitgud.site/wiki/llama/

Инструменты для запуска на десктопах:
• Отец и мать всех инструментов, позволяющий гонять GGML и GGUF форматы: https://github.com/ggml-org/llama.cpp
• Самый простой в использовании и установке форк llamacpp: https://github.com/LostRuins/koboldcpp
• Более функциональный и универсальный интерфейс для работы с остальными форматами: https://github.com/oobabooga/text-generation-webui
• Заточенный под ExllamaV2 (а в будущем и под v3) и в консоли: https://github.com/theroyallab/tabbyAPI
• Однокнопочные инструменты на базе llamacpp с ограниченными возможностями: https://github.com/ollama/ollama, https://lmstudio.ai
• Универсальный фронтенд, поддерживающий сопряжение с koboldcpp и text-generation-webui: https://github.com/SillyTavern/SillyTavern
• Альтернативный фронт: https://github.com/kwaroran/RisuAI

Инструменты для запуска на мобилках:
• Интерфейс для локального запуска моделей под андроид с llamacpp под капотом: https://github.com/Mobile-Artificial-Intelligence/maid
• Альтернативный вариант для локального запуска под андроид (фронтенд и бекенд сепарированы): https://github.com/Vali-98/ChatterUI
• Гайд по установке SillyTavern на ведроид через Termux: https://rentry.co/STAI-Termux

Модели и всё что их касается:
• Актуальный список моделей с отзывами от тредовичков: https://rentry.co/2ch_llm_2025 (версия для бомжей: https://rentry.co/z4nr8ztd )
• Неактуальные списки моделей в архивных целях: 2024: https://rentry.co/llm-models , 2023: https://rentry.co/lmg_models
• Миксы от тредовичков с уклоном в русский РП: https://huggingface.co/Aleteian и https://huggingface.co/Moraliane
• Рейтинг моделей по уровню их закошмаренности цензурой: https://huggingface.co/spaces/DontPlanToEnd/UGI-Leaderboard
• Сравнение моделей по сомнительным метрикам: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard
• Сравнение моделей реальными пользователями по чуть менее сомнительным метрикам: https://chat.lmsys.org/?leaderboard

Дополнительные ссылки:
• Готовые карточки персонажей для ролплея в таверне: https://www.characterhub.org
• Перевод нейронками для таверны: https://rentry.co/magic-translation
• Пресеты под локальный ролплей в различных форматах: https://huggingface.co/Virt-io/SillyTavern-Presets
• Шапка почившего треда PygmalionAI с некоторой интересной информацией: https://rentry.co/2ch-pygma-thread
• Официальная вики koboldcpp с руководством по более тонкой настройке: https://github.com/LostRuins/koboldcpp/wiki
• Официальный гайд по сопряжению бекендов с таверной: https://docs.sillytavern.app/usage/how-to-use-a-self-hosted-model/
• Последний известный колаб для обладателей отсутствия любых возможностей запустить локально: https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing
• Инструкции для запуска базы при помощи Docker Compose: https://rentry.co/oddx5sgq https://rentry.co/7kp5avrk
• Пошаговое мышление от тредовичка для таверны: https://github.com/cierru/st-stepped-thinking
• Потрогать, как работают семплеры: https://artefact2.github.io/llm-sampling/
• Выгрузка избранных тензоров, позволяет ускорить генерацию при недостатке VRAM: https://www.reddit.com/r/LocalLLaMA/comments/1ki7tg7
• Инфа по запуску на MI50: https://github.com/mixa3607/ML-gfx906

Архив тредов можно найти на архиваче: https://arhivach.hk/?tags=14780%2C14985

Шапка в https://rentry.co/llama-2ch, предложения принимаются в треде.

Предыдущие треды тонут здесь:
>>1384087 (OP)
>>1378253 (OP)
Пропущено 96 постов
15 с картинками.
Пропущено 96 постов, 15 с картинками.
Аноним 15/10/25 Срд 23:35:46 1388302
>>1388102
Хохол?
Поезжай в нам в рф, тут все кто из рф с 192гб рам и 48 врама сидят
Аноним 16/10/25 Чтв 00:25:28 1388382
>>1388102
Толку если это некроамдэ и некрозеоны?
Аноним 16/10/25 Чтв 00:59:08 1388436
123.png 9Кб, 565x25
565x25
Когда решил запустить 6-й квант глм - уж там то точно должно быть абсолютное кино
ИИ-видео №18 /video/ Аноним 11/10/25 Суб 00:19:14 1382874 Ответ
17598763461820.mp4 4837Кб, 1280x704, 00:00:10
1280x704
17597043367540.mp4 4470Кб, 1280x704, 00:00:10
1280x704
17598765221600.mp4 8949Кб, 1280x704, 00:00:15
1280x704
17598779497800.mp4 1733Кб, 872x480, 00:00:10
872x480
Генерируем свое (и постим чужое) в Hunyuan, Wan, Veo3, Luma Dream Machine, Hailuo Minimax, Kling, Sora, Vidu, Runway, Pixverse, Pika и др. сервисах.


1. Hailuo Minimax

https://hailuoai.video/

2. Kling

https://klingai.com/

3. Sora от OpenAI

https://openai.com/sora/
https://openai.com/index/sora-2/


4. Luma Dream Machine

https://lumalabs.ai/

5. Vidu

https://www.vidu.com/create

6. Pixverse

https://app.pixverse.ai/

7. Pika

https://pika.art/try

8. Runway Gen. 4

https://runwayml.com/

9. Wan от Alibaba

https://wan.video/

10. Veo3 от Google

https://deepmind.google/models/veo/

Сайты, где можно попробовать генерации на разных моделях

https://nim.video/
https://pollo.ai/
https://www.florafauna.ai/

Коллекция ИИ-видео:

https://www.reddit.com/r/aivideo/

Локальные модели

1. Hunyuan от Tencent

https://hunyuanvideoai.com/
https://github.com/Tencent/HunyuanVideo

2. Wan от Alibaba

https://github.com/Wan-Video/Wan2.1
https://github.com/Wan-Video/Wan2.2

3. MAGI-1 от Sand AI

https://sand.ai/magi
https://github.com/SandAI-org/MAGI-1


Локальный UI
https://github.com/comfyanonymous/ComfyUI

Установка локальных моделей
Hunyuan Video: https://comfyanonymous.github.io/ComfyUI_examples/hunyuan_video/
Wan 2.1: https://comfyanonymous.github.io/ComfyUI_examples/wan/
Wan 2.2: https://comfyanonymous.github.io/ComfyUI_examples/wan22/

Гайд для использования Wan 2.2:

https://alidocs.dingtalk.com/i/nodes/EpGBa2Lm8aZxe5myC99MelA2WgN7R35y

Альтернативные ноды ComfyUI
Hunyuan Video: https://github.com/kijai/ComfyUI-HunyuanVideoWrapper
Wan 2.1: https://github.com/kijai/ComfyUI-WanVideoWrapper

Квантованные чекпоинты
Hunyuan Video (GGUF): https://huggingface.co/Kijai/SkyReels-V1-Hunyuan_comfy/tree/main
Wan 2.1 (GGUF): https://huggingface.co/city96/Wan2.1-I2V-14B-480P-gguf/tree/main
Wan 2.1 (NF4): https://civitai.com/models/1299436?modelVersionId=1466629

Где брать готовые LoRA
https://civitai.com/models
Hunyuan Video: https://civitai.com/search/models?baseModel=Hunyuan%20Video&sortBy=models_v9
Wan 2.1: https://civitai.com/search/models?baseModel=Wan%20Video&sortBy=models_v9

Обучение LoRA
https://github.com/tdrussell/diffusion-pipe

Предыдущий тред

>>1372362 (OP)
Пропущено 429 постов
108 с картинками.
Пропущено 429 постов, 108 с картинками.
Аноним 16/10/25 Чтв 00:36:21 1388402
Кто-нибудь встречал лору для футджоба, которая создает член, если его нет в кадре как лоры с титфаком и оралом?

все лоры на civitai, которые я нашел, так понимаю, неспособны сами член создать, только оживлять готовые изображения.

ну или, если есть способ как-то "стабильно" с помощью другой лоры или еще чего спавнить член для этого дела, подскажите
Аноним 16/10/25 Чтв 00:57:17 1388430
>>1388402
Все они могут, лоры на орал хуй спавнят сами и очень даже неплохо, разве что на и2в в 2д артах они всратовато выглядят, если хуй есть с нулевой результат конечно получше будет.
Аноним 16/10/25 Чтв 00:58:39 1388435
>>1388430
А, пардон, не так прочитал, я думал там вопрос про все три пункта комплексно.
AI Chatbot General № 749 /aicg/ Аноним 15/10/25 Срд 22:48:57 1388179 Ответ
image.png 823Кб, 1280x837
1280x837
Bladerunner.mp4 3425Кб, 960x720, 00:00:51
960x720
image.png 301Кб, 1350x836
1350x836
AI Chatbot General № 749

БОТОДЕЛЫ!!!! Прикрепляйте новых ботов к оп-посту!!!!

Общий вопросов по чат-ботам и прочего тред.

Новости
• Вышла GLM 4.6 - https://z.ai/blog/glm-4.6
• Вышел Deepseek v3.2 - https://huggingface.co/deepseek-ai/DeepSeek-V3.2-Exp
• Вышел Claude Sonnet 4.5 - https://www.anthropic.com/news/claude-sonnet-4-5

Фронтенды
• SillyTavern: https://github.com/SillyTavern/SillyTavern | https://docs.sillytavern.app | https://github.com/ntvm/SillyTavern (форк нв-куна)
• Гайды на таверну: https://rentry.co/Tavern4Retards | https://rentry.org/STAI-Termux (на андроид)
• NoAssTavern: https://github.com/Tavernikof/NoAssTavern | https://rentry.org/noasstavern
• Risu: https://risuai.xyz/

Модели
• Claude: https://docs.anthropic.com/en/docs
• GPT: https://platform.openai.com/docs
• Gemini: https://ai.google.dev/gemini-api/docs
• DeepSeek: https://api-docs.deepseek.com/

Пресеты
• Тредовский список: https://rentry.org/2ch-aicg-jb
• Бургерский список: https://rentry.org/jb-listing

Полезности
• Тредовский список: https://rentry.org/2ch-aicg-utils
• Сборник рентри: https://rentry.org/mrhd

Ботоводчество
• /aicg/hub: https://aicg-hub.ru/characters.html
• Чуб: https://characterhub.org | https://chub.ai/characters
• Гайды: https://rentry.org/meta_botmaking_list | https://rentry.co/card_theory
• Боты анонов: https://rentry.org/2chaicgtavernbots | https://rentry.org/2chaicgtavernbots2 | https://rentry.org/2chaicgtavernbots3
• Бургерские боты: https://rentry.org/meta_bot_list

Ресурсы
• Бесплатные API: https://github.com/cheahjs/free-llm-api-resources
• Арена: https://beta.lmarena.ai/ | https://web.lmarena.ai/
• OpenRouter: https://openrouter.ai/
• Чай: https://character.ai/

Прочее
• Термины LLM: https://2ch-ai.gitgud.site/wiki/llama/
• База по Клоду: https://rentry.org/how2claude

Мета
• Архив тредов: https://rentry.org/2ch-aicg-archives4
• Тредовые ивенты: https://rentry.org/2chaicgthemedevents
• Реквесты ботоделам: https://rentry.org/2ch-aicg-requests2
• Локальные языковые модели: >>1384087 (OP)
• Шаблон шапки: https://rentry.org/shapka_aicg

Прошлый тред: >>1385650 (OP)
Пропущено 168 постов
26 с картинками.
Пропущено 168 постов, 26 с картинками.
Аноним 16/10/25 Чтв 00:57:26 1388431
охуеть опус на китайце еще работает. это реально вечный опус получается у нас будет? он еще и по реверсу, значит не кончится никогда!
Аноним 16/10/25 Чтв 00:57:49 1388432
>>1388427
Не ну так то он прав, лучше уж его рефку юзать
Аноним 16/10/25 Чтв 00:58:24 1388434
>>1388431
ну чистый опус уже закончился скоро и этот сожрем не переживай ))
Anime Diffusion #228 /nai/ Аноним 15/10/25 Срд 16:02:08 1387850 Ответ
.png 27563Кб, 4416x4416
4416x4416
.png 7046Кб, 4096x2272
4096x2272
.webm 3670Кб, 832x1280, 00:00:10
832x1280
.jpg 3862Кб, 3840x2960
3840x2960
.jpg 3007Кб, 2800x2240
2800x2240
.jpg 2309Кб, 2304x3456
2304x3456
.jpg 888Кб, 1280x1856
1280x1856
.jpg 1153Кб, 1368x1920
1368x1920
Генерируем тяночек!

Прошлый тред: >>1379093 (OP) https://arhivach.vc/thread/1247234/

Схожие тематические треды
• SD-тред (не аниме): >>1385807 (OP)
• Технотред: >>1272560 (OP)
• Фурри-тред: https://2ch.su/fur/res/374311.html

FAQ
https://2ch-ai.gitgud.site/wiki/nai

Установка
• NVidia: https://rentry.co/2ch_nai_guide
• AMD: https://2ch-ai.gitgud.site/wiki/nai/install/amd
• Облака: https://2ch-ai.gitgud.site/wiki/nai/install/clouds

Дополнительная информация
• Интерфейсы: https://2ch-ai.gitgud.site/wiki/nai/interfaces
• Модели: https://2ch-ai.gitgud.site/wiki/nai/models
• Промпты: https://2ch-ai.gitgud.site/wiki/nai/prompts
• Апскейл: https://2ch-ai.gitgud.site/wiki/nai/upscale
• LoRA: https://2ch-ai.gitgud.site/wiki/nai/lora
• ControlNet: https://2ch-ai.gitgud.site/wiki/nai/controlnet

Прочее
• CivitAI: https://civitai.com
• Каталог ссылок от форчанеров: https://rentry.co/sdg-link
• Шаблон для переката: https://rentry.co/nwhci
Пропущено 30 постов
15 с картинками.
Пропущено 30 постов, 15 с картинками.
Аноним 15/10/25 Срд 23:35:27 1388299
>>1388066
Нажаловался, что-то втирал про удочку и говорит сам делай. Охренели там совсем чтоли?
>>1388160
Содомит!
Аноним 15/10/25 Срд 23:50:54 1388327
>>1388156
Видеоанимен, анимируй первую.
Аноним 16/10/25 Чтв 00:33:31 1388393
1618744729146.mp4 268Кб, 606x1078, 00:00:01
606x1078
Stable Diffusion тред X+171 /sd/ Аноним 13/10/25 Пнд 19:55:09 1385807 Ответ
image.png 1378Кб, 1160x896
1160x896
image.png 2314Кб, 1024x1536
1024x1536
image.png 2035Кб, 1024x1024
1024x1024
image.png 220Кб, 1152x896
1152x896
Тред локальной генерации

База:
→ Приложение ComfyUI https://www.comfy.org/download
→ Примеры https://comfyanonymous.github.io/ComfyUI_examples/
https://comfyui-wiki.com/ (откуда, куда, как)
→ Менеджер расширений https://github.com/ltdrdata/ComfyUI-Manager (автоустановка, реестр расширений)
→ Модели https://civitai.com/

ЧТО НОВОГО АКТУАЛЬНОГО ЗА ГОД

• Qwen Image Edit Plus (2509)
• Qwen Image Edit
• Qwen Image
• Flux Krea (Флюкс без жопных подбородков)
• Flux Kontext
• Wan 2.2 (подходит для генерации картинок).
• Chroma (сильный ретрейн флюкса).
• NAG (негативный промпт на моделях с 1 CFG)
• Лора Lightning для Qwen, Wan ускоряет в 4 раза. Nunchaku ускоряет модели в 2-4 раза. DMD2 для SDXL ускоряет в 2 раза. Пример: 4-8 шагов, CFG 1. https://huggingface.co/tianweiy/DMD2/blob/main/dmd2_sdxl_4step_lora_fp16.safetensors,
CFG 3 для NoobAI https://huggingface.co/YOB-AI/DMD2MOD/blob/main/LYC-DMD2MOD%20(Dmo%2BTffnoi).safetensors,

Оффлайн модели для картинок: Stable Diffusion, Flux, Wan-Video (да), Auraflow, HunyuanDiT, Lumina, Kolors, Deepseek Janus-Pro, Sana
Оффлайн модели для анимации: Wan-Video, HunyuanVideo, Lightrics (LTXV), Mochi, Nvidia Cosmos, PyramidFlow, CogVideo, AnimateDiff, Stable Video Diffusion
Приложения: ComfyUI и остальные (Fooocus, webui-forge, InvokeAI)

► Предыдущий тред >>1365529 (OP)https://arhivach.hk/?tags=13840
Дополнительно: https://telegra.ph/Stable-Diffusion-tred-X-01-03
Пропущено 59 постов
17 с картинками.
Пропущено 59 постов, 17 с картинками.
Аноним 15/10/25 Срд 22:29:38 1388140
Котаны, как заапскейлить пикчу, сохраняя все детали?

Seedvr2 пердолит свое
Аноним 15/10/25 Срд 22:35:24 1388154
Аноним 15/10/25 Срд 23:07:07 1388230
Натренил лору на ван на ебало, получается пиздато, но если накинуть других лор на реализм, то детали херятся. Как быть?
Новости об искусственном интеллекте №36 /news/ Аноним 07/10/25 Втр 09:22:56 1378751 Ответ
17597723888110.mp4 19560Кб, 720x1280, 00:00:02
720x1280
17597725110410.mp4 2535Кб, 720x1280, 00:00:02
720x1280
В этот тредик скидываются свежие новости по теме ИИ! Залетай и будь в курсе самых последних событий и достижений в этой области!

Прошлый тред: >>1363739 (OP)
Пропущено 416 постов
94 с картинками.
Пропущено 416 постов, 94 с картинками.
Аноним 15/10/25 Срд 22:04:13 1388108
>>1388103
Потому что таракан не умеет решать задачи, а умный дом умеет решать задачи. Ну ладно, тут утрирование с моей стороны. У таракана есть интеллект, но он примитивный. И это не имеет никакого отношения к сложности строения таракана, а лишь к его способности реагировать на различные ситуации. Пусть его действия в большей степени инстинктивны у него тоже есть задача - выживание, и он справляется с ней примитивным набором действий. Однако для природы это не эксклюзивно.
Аноним 15/10/25 Срд 22:52:08 1388188
изображение.png 61Кб, 300x175
300x175
>>1387966
>почитай как животные решают задачи
В школе про поведение животных только про пикрил читают. При чём тут интеллект?
Аноним 15/10/25 Срд 23:00:50 1388213
>Коты штоли тряпку в лапы возьмут?
Ждём кошкодевочек после ии генной модификации человека котеек
Музыкальный №16 /music/ Аноним 28/09/25 Вск 18:58:21 1368361 Ответ
Груз.mp4 6494Кб, 480x480, 00:03:30
480x480
17557954986330.mp4 6272Кб, 1024x1024, 00:03:48
1024x1024
17587466339780.mp4 1701Кб, 824x1464, 00:00:59
824x1464
Гроза без молний.mp4 5337Кб, 480x480, 00:03:44
480x480
♫ Udio ♫
https://www.udio.com/

Вышла версия 1.5 Allegro, по функционалу то же, что и 1.5, только в два раза быстрее. Лимит 400 кредитов в месяц (или 200 генераций по 33 секунды каждая) при условии ежедневного захода на сайт - 100 кредитов даются в месяц, и еще 10 кредитов даются ежедневно. Также можно фармить кредиты, выполняя специальные задания по оцениванию качества рандомных треков, это дает не больше 10 дополнительных кредитов в день. Для большего числа кредитов и более продвинутых фич типа инпэйнтинга или генерации с загруженного аудио нужно платить. Появилась возможность генерировать треки по 2 минуты 11 секунд, не больше 3 длинных треков (по 2 версии на каждый трек) в день на бесплатном тарифе.

♫ Suno ♫
https://app.suno.ai/ генерация на сайте
https://suno.ai/discord генерация на официальном discord-сервере
https://rentry.co/suno_tips советы по использованию

Лимиты: 10 генераций в день. Нужна платная подписка чтобы увеличить лимиты, либо можно абузить сервис через создание множества аккаунтов

♫ Riffusion ♫
https://www.riffusion.com/

Старая версия Riffusion:

https://classic.riffusion.com/

Новинка, по качеству звука на уровне Суно или чуть выше. Лучший по качеству генератор текстов на русском. Количество генераций в день не ограничено, но за некоторые функции нужно платить (загрузку аудио, стемов и т.д.)

https://www.riffusion.com/docs
https://classic.riffusion.com/docs

Инструкция по применению, тегам и прочему на английском.

______________

Локальные модели:

1) Китайский YuE

https://github.com/multimodal-art-projection/YuE
https://github.com/joeljuvel/YuE-UI

Это буквально первый проект который может генерировать песни по заданному тексту локально. Оригинальная версия генерирует 30-секундный отрывок за 5 минут на 4090. На данный момент качество музыки низкое по сравнению с Суно. Версия из второй ссылки лучше оптимизирована под слабые видеокарты (в т.ч. 6-8 Гб VRAM, по словам автора). Инструкция на английском по ссылке.

2) ACE-Step

https://github.com/ace-step/ACE-Step

Вторая локалка, качеством получше.

Здесь демо-версия:
https://huggingface.co/spaces/ACE-Step/ACE-Step
______________

Еще сайты по генерации ИИ-музыки, в них тоже низкое качество звука и понимание промпта по сравнению с Суно, либо какие-то другие недостатки типа слишком долгого ожидания генерации или скудного набора жанров, но может кому-то зайдет, поэтому без описания:

https://www.wondera.ai/
https://sonauto.ai/
https://www.beatoven.ai/
https://stableaudio.com/
https://www.loudly.com/music/ai-music-generator

______________
Редакция трека после генерации (можно убрать вокал и оставить только инструментал и наоборот, убрать шумы и т.д.)

https://x-minus.pro/ai
https://uvronline.app/ai?locale=ru_RU

______________
Напомню мега-сайт для сочинения аутентичных англоязычных текстов для ИИ-музыки в стиле известных групп и артистов от Пинк Флойда до Эминема. Зайти можно только через Дискорд.

https://codyai.cc/

Прошлый тред

>>1327306 (OP)
Пропущено 285 постов
169 с картинками.
Пропущено 285 постов, 169 с картинками.
Аноним 15/10/25 Срд 20:43:46 1388043
>>1387657
Да. И гуглил ambient music generation github. Ноль
>>1387702
Проверить предположение, что задача настолько проста, что с ней справится классическая cnn
Аноним 15/10/25 Срд 21:39:58 1388079
>>1388043
Устройся на строийку электромонтажником штробить каналы для проводки и генерь свой дрон амбиент сколько влезет.
Аноним 15/10/25 Срд 22:56:10 1388197
МЛШ.mp4 6662Кб, 720x720, 00:03:21
720x720
>>1385054
>сменила имя на "Венедикта"
Ну это не проблема.
Исследования ИИ тред #3 /research/ Аноним 13/04/25 Вск 22:51:56 1151064 Ответ
Research 1.png 169Кб, 1320x1860
1320x1860
Research 2.png 2864Кб, 4000x2000
4000x2000
Research 3.png 43Кб, 600x329
600x329
Нейронка шизосх[...].webp 148Кб, 1075x991
1075x991
Обсуждаем развитие искусственного интеллекта с более технической стороны, чем обычно. Ищем замену надоевшим трансформерам и диффузии, пилим AGI в гараже на риге из под майнинга и игнорируем горький урок.

Я ничего не понимаю, что делать?
Без петросянства: смотри программу стэнфорда CS229, CS231n https://see.stanford.edu/Course/CS229 (классика) и http://cs231n.stanford.edu (введение в нейроночки) и изучай, если не понятно - смотри курсы prerequisites и изучай их. Как именно ты изучишь конкретные пункты, типа линейной алгебры - дело твое, есть книги, курсы, видосики, ссылки смотри ниже.

Где узнать последние новости?
https://www.reddit.com/r/MachineLearning
https://datatau.net
https://twitter.com/ylecun

На реддите также есть хороший FAQ для вкатывающихся.

Какая математика используется?
В основном линейная алгебра, теорвер, матстат, базовый матан и matrix calculus.

Как работает градиентный спуск?
https://cs231n.github.io/optimization-2

Почему python?
Исторически сложилось. Поэтому давай, иди и перечитывай Dive into Python.

Можно не python?
Никого не волнует, где именно ты натренируешь свою гениальную модель. Но при серьезной работе придется изучать то, что выкладывают другие, а это будет, скорее всего, python, если работа последних лет.

Что почитать для вкатывания?
http://www.deeplearningbook.org
https://d2l.ai/index.html
Николенко "Глубокое обучение" — на русском, есть примеры, но меньше охват материала
Франсуа Шолле — Глубокое обучение на Python

Все книги и статьи фактически устаревают за год.

В чем практиковаться нубу?
http://deeplearning.stanford.edu/tutorial
https://www.hackerrank.com/domains/ai
https://github.com/pytorch/examples
https://github.com/ChristosChristofidis/awesome-deep-learning#tutorials

Где набрать первый самостоятельный опыт?
https://www.kaggle.com

Стоит отметить, что спортивный deep learning отличается от работы примерно так же, как олимпиадное программирование от настоящего. За полпроцента точности в бизнесе борятся редко, а в случае проблем нанимают больше макак для разметки датасетов. На кагле ты будешь вилкой чистить свой датасет, чтобы на 0,1% обогнать конкурента.

Где работать?
https://www.indeed.com/q-deep-learning-jobs.html
Вкатывальщики могут устроиться программистами и дальше попроситься в ML-отдел

Есть ли фриланс в машобе?
Есть, https://www.upwork.com/search/jobs/?q=machine+learning
Но прожить только фриланся сложно, разве что постоянного клиента найти, а для этого нужно не быть тобой

Где посмотреть последние статьи?
http://www.arxiv-sanity.com
https://paperswithcode.com
https://openreview.net
Версии для зумеров (Килхер): https://www.youtube.com/channel/UCZHmQk67mSJgfCCTn7xBfew

Количество статей зашкваливающее, поэтому все читают только свою узкую тему и хайповые статьи, упоминаемые в блогах, твиттере, ютубе и телеграме, топы NIPS и прочий хайп. Есть блоги, где кратко пересказывают статьи, даже на русском

Где посмотреть must read статьи?
https://github.com/ChristosChristofidis/awesome-deep-learning#papers
https://huggingface.co/transformers/index.html
То, что обозревает Килхер тоже зачастую must read

Где ещё можно поговорить про анализ данных?
http://ods.ai

Нужно ли покупать видеокарту/дорогой пека?
Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. Google Colab дает бесплатно аналог GPU среднего ценового уровня на несколько часов с возможностью продления, при чем этот "средний уровень" постоянно растет. Некоторым достается даже V100.
Иначе выгоднее вложиться в GPU https://timdettmers.com/2019/04/03/which-gpu-for-deep-learning заодно в майнкрафт на топовых настройках погоняешь.

Когда уже изобретут AI и он нас всех поработит?
На текущем железе — никогда, тред не об этом

Кто-нибудь использовал машоб для трейдинга?
Огромное количество ордеров как в крипте так и на фонде выставляются ботами: оценщиками-игральщиками, перекупщиками, срезальщиками, арбитражниками. Часть из них оснащена тем или иным ML. Даже на швабре есть пара статей об угадывании цены. Тащем-то пруф оф ворк для фонды показывали ещё 15 лет назад.
Так-что бери Tensorflow + Reinforcement Learning и иди делать очередного бота: не забудь про стоп-лоссы и прочий риск-менеджмент, братишка

Список дедовских книг для серьёзных людей
Trevor Hastie et al. "The Elements of Statistical Learning"
Vladimir N. Vapnik "The Nature of Statistical Learning Theory"
Christopher M. Bishop "Pattern Recognition and Machine Learning"
Взять можно тут: https://www.libgen.is

Напоминание ньюфагам: немодифицированные персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.

Disclaimer: Шапка сгенерирована нейросетью и нуждается в чистке. Исходник шапки: https://rentry.co/research-2ch

Предыдущий тред:
>>511426 (OP)
Пропущено 155 постов
34 с картинками.
Пропущено 155 постов, 34 с картинками.
Аноним 15/10/25 Срд 06:22:57 1387547
>>1376160
Тут вот какая проблема, ты одно уравнение линейной регрессии записал в общей форме в абзац текста, если я тебе начну в такой формат переводить свои реальные рабочие выкладки, то там будет по 60 листов.
Математический язык очень лаконичный, а в код переписать всегда успеешь (большая часть математики до кода впринципе не доходит, тк ещё на этапе поверхностного моделирования становится понятно что происходит какая-то хуета).

Ну и плюс у математического языка есть хорошее свойство генерализировать разные штуки.

Короче распиши несложную сеть с 3 слоями, 20 инпутами, 2 аутпутами и софтмаксом на конце с прямым проходом и вычислением всех производных весов нейронов (только не одного нейрона, а общий случай на каждый слой) в виде алгоритма, и на математическом языке, во-первых будет просто полезно для понимания матчасти раз ты учишь эту тему, а во-вторых сам быстро поймёшь почему язык математики работает, а текст и блок-схемы не работают (да и код часто читать сложнее латекса).
Аноним 15/10/25 Срд 19:11:18 1387967
>>1377202
>Никто не спорит, что нужно понимать теоретическую базу, которая часто абстрактная. Но в данном случае мы обсуждаем нейронки, в которых вещи совсем не абстрактные. Те же QKV в трансформерах - почему я должен наизусть запоминать, что Q = Query, K = Key, V = Value? Сэкономили буквально несколько букв лишь бы обмазаться этими "абстрактными" формулами. Ещё и в код свои сокращения постоянно тянут, как будто боятся лишний килобайт на исходный код потратить или случайно выйти за ширину строки в 20 символов...

Ты сейчас вскрыл интересную тему, что дураки это не совсем то что в социуме обычно понимается. Согласно кривой статистического распределения, есть по 5% людей которые умнее или тупее всех остальных. Речь не идет о буквальных умственных отсталых, которые не способны жить самостоятельно.

Как отличить 5% самых умных? Они на автомате объясняют вещи на пальцах, потому что живут в обществе, и выучили пробным путем что если они не будут расжевывать всем все то их никогда не поймут - потому что 95% по определению их тупее. Плюс, наиболее эффективный способ разобраться в теме это в голове ее разобрать, как если бы кому-то объяснял.

Соответственно, 5% самых тупеньких наоборот стараются изъясняться максимально запутанным образом - потому что если они не будут это делать, их сразу запишут в тупых, а им бы этого не хотелось. Поэтому там где можно сказать 5 слов, мудак использует 50, а в промежутках для еще мгнозначительно помычит для весу. Процессор умеет гонять более одного конвеера инструкций одновременно, как это назвать, многоконвеерность? Да ну нахуй, СУПЕРСКАЛЯРНОСТЬ. Ну да, формулы есть максимально эффективный способ передачи, при условии что тот кому ты их передаешь способен их расшифровать. Но не единственный, а если неспособен, то это максимально неэффективый, и тебе нужно переключаться на графики которые можно понять визуально или псевдокод. Но - идиот он и есть идиот. Еще для тупых характерен лютейший group think с закидыванием говном всех кто не придерживается общепринятого в их группе мнения.

И тут возникает момент - идиот же не может быть математиком! На самом деле еще как может, и даже скорее всего большинство математиков являются идиотами. Есть такая штука как парадокс моравека, математика это классический из его столпов. Есть еще такая штука как вундеркинды, про них наиболее часто знают в контексте шахмат и математики. И это сферы, в которых компы в первую очередь начали уделывать людей начисто. В то же время, про вундеркиндов от экономики и медицины ничего особо не слышно, потому что это не области где можно функионировать в изоляции как мозг в банке. У дурака по сравнению с обычным человеком "железо" в башке не способно потянуть полноценный чекпоинт, с социализацией, мудростью, интуицией и т.д. Зато гиперсфокусироваться на узкой области оно может, и учится быстрее нормального человека, потому что параметров у нейронки дурака намного меньше. Если дураку повезет, и этой областью становятся не дота или лор стартрека, как это обычно бывает, получается Эйнштейн. Это кстати хороший аргумент в пользу классического образования, с изучением в придачу к математике еще и всякой поэзии со спортом. Если бы оно было внедрено повсеместно мы бы смогли избежать заебавших всех ретардов типа Маска и Юваля Харари.

Ну и хорошие новости - технический прогресс неумолим. Раньше кодинг - это был процесс слинковывания инструкций процессора, на этом взлетали всякие крутые ретарды типа Кнута. Сейчас кодинг это копипейст кусков из чатжпт, и обратного процесса не будет, далее будут "языки программирования" в которых нужно будет рисовать коробочки со стрелками и внутри писать нейронке что эта коробочка должна делать. С математикой то же самое будет, это будет чисто внутренний формат данных для ризонинга нейронки.
Аноним 15/10/25 Срд 20:22:48 1388028
>>1387967
>далее будут "языки программирования" в которых нужно будет рисовать коробочки со стрелками
На это дрочили лет 20, воз и ныне там. Короче нет, не будет.
Ну и остальные анал огии про тупых и количество нейронов у них не выдерживают никакой критики. Самые умные вообще решают задачи, на объяснение названий которых тебе уйдёт полчаса (притом что ты скорее всего не совсем тупой), и это нормально, так же, как и специализация на узкой сфере.
Онлайн генерация картинок №2 /image/ Аноним 21/05/25 Срд 16:57:33 1210619 Ответ
17463796110101.png 1522Кб, 1024x1024
1024x1024
17390379240222.jpg 1010Кб, 896x1280
896x1280
17430673013900.jpg 440Кб, 1024x1024
1024x1024
17389399632032.webp 305Кб, 1024x1024
1024x1024
Общий тред для изображений, созданных с помощью онлайн ИИ-генерации.

Из России большинство сервисов напрямую недоступно.

Dall-E
https://bing.com/images/create/
https://www.cici.com (ищем бота ACO)

Imagen
https://labs.google/fx/tool/image-fx а также https://labs.google/fx/tools/whisk (доступны только в США, Кении, Новой Зеландии и Австралии)
https://gemini.google.com/app

Reve
https://preview.reve.art/app

GPT-4o
http://chatgpt.com/
https://sora.chatgpt.com/explore

Stable Diffusion и прочие
https://civitai.com/generate
https://dreamina.capcut.com/
https://ideogram.ai
https://www.meta.ai
https://ximagegenerator.com
https://www.recraft.ai
https://app.klingai.com/global/text-to-image/new
https://hailuoai.video/create
https://lumaphoton.com
https://leonardo.ai/
https://aistudio.google.com/prompts/new_chat (модель Gemini image)
https://tensor.art
https://getimg.ai/text-to-image
https://www.mage.space/
https://problembo.com/ru
https://deepai.org/machine-learning-model/text2img
https://dezgo.com/
https://dream.ai/create
https://www.krea.ai/

Дополнительные сервисы:
https://www.pixited.com/ - библиотека промптов с примерами
https://rentry.org/From-4ch-To-2ch-Dall-3-Prompts - сборник промптов
https://www.stylar.ai - AI-редактор картинок (дорисовка, инпейнт, работа с лицами)
https://astica.ai - сборник ИИ-сервисов, в частности довольно мощный де-промптер (Vision AI -> Describe and Caption)
https://huggingface.co/spaces/fffiloni/CLIP-Interrogator-2 - де-промптер, разбирающий вброшенный пик на теги
https://bigjpg.com/ - апскейлер до 4096х4096
https://runwayml.com/ , https://www.stablevideo.com - анимирование генераций

Предыдущий тред: >>1042275 (OP)
Пропущено 469 постов
245 с картинками.
Пропущено 469 постов, 245 с картинками.
Аноним 14/10/25 Втр 22:23:38 1387195
>>1385524
Это бот, который иногда спамит сливом мочи
Аноним 14/10/25 Втр 22:32:57 1387199
image.png 1847Кб, 1635x963
1635x963
>>1210619 (OP)
FLUX context не может совместить двух героев
Аноним 15/10/25 Срд 20:12:56 1388013
ChatGPT-тред №20 /chatgpt/ Аноним 13/06/25 Птн 17:20:47 1244803 Ответ
изображение.png 37Кб, 558x611
558x611
изображение.png 88Кб, 1330x1149
1330x1149
изображение.png 1161Кб, 721x1081
721x1081
изображение.png 16Кб, 795x206
795x206
Общаемся с самым продвинутым ИИ самой продвинутой текстовой моделью из доступных. Горим с ограничений, лимитов и банов, генерим пикчи в стиле Studio Ghibli и Венеры Милосской и обоссываем пользователей других нейросетей по мере возможности.

Общение доступно на https://chatgpt.com/ , бесплатно без СМС и регистрации. Регистрация открывает функции создания изображений (может ограничиваться при высокой нагрузке), а подписка за $20 даёт доступ к новейшим моделям и продвинутым функциям. Бояре могут заплатить 200 баксов и получить персонального учёного (почти).

Гайд по регистрации из России (устарел, нуждается в перепроверке):
1. Установи VPN, например расширение FreeVPN под свой любимый браузер и включи его.
2. Возьми нормальную почту. Адреса со многих сервисов временной почты блокируются. Отбитые могут использовать почту в RU зоне, она прекрасно работает.
3. Зайди на https://chatgpt.com/ и начни регистрацию. Ссылку активации с почты запускай только со включенным VPN.
4. Если попросят указать номер мобильного, пиздуй на sms-activate.org или 5sim.biz (дешевле) и в строку выбора услуг вбей openai. Для разового получения смс для регистрации тебе хватит индийского или польского номера за 7 - 10 рублей. Пользоваться Индонезией и странами под санкциями не рекомендуется.
5. Начинай пользоваться ChatGPT.
6. ???
7. PROFIT!

VPN не отключаем, все заходы осуществляем с ним. Соответствие страны VPN, почты и номера не обязательно, но желательно для тех, кому доступ критически нужен, например для работы.

Для ленивых есть боты в телеге, 3 сорта:
0. Боты без истории сообщений. Каждое сообщение отправляется изолировано, диалог с ИИ невозможен, проёбывается 95% возможностей ИИ
1. Общая история на всех пользователей, говно даже хуже, чем выше
2. Приватная история на каждого пользователя, может реагировать на команды по изменению поведения и прочее. Говно, ибо платно, а бесплатный лимит или маленький, или его нет совсем.

Промты для хорошего начала беседы для разных ситуаций
https://github.com/f/awesome-chatgpt-prompts

Перед тем, как идти в тред с горящей жопой при ошибках сервиса, сходи на сайт со статусом, может, это общий сбой
https://status.openai.com/

Приложение на андроид https://4pda.to/forum/index.php?showtopic=1073274

Чат помнит историю в пределах контекста, размер которого зависит от модели. Посчитать свои токены можно здесь:
https://platform.openai.com/tokenizer

Что может нейросеть:
- писать тексты, выглядящие правдоподобно
- решать некоторые простые задачки
- писать код, который уже был написан

Что не может нейросеть:
- писать тексты, содержащие только истину
- решать сложные задачи
- писать сложный код
- захватывать мир

С последними обновлениями начинает всё чаще сопротивляться написанию NSFW историй и прочего запрещённого контента. Кумеры со всего мира в печали.

Прошлый тред тонет по адресу:
>>1125882 (OP)
Пропущено 368 постов
101 с картинками.
Пропущено 368 постов, 101 с картинками.
Аноним 14/10/25 Втр 02:54:12 1386284
Аноним 14/10/25 Втр 18:34:55 1386892
17421513748690.mp4 7572Кб, 1108x1080, 00:00:36
1108x1080
Как вкатиться? ВПН покупать и подписку? Карты мир явно ж не принимает. Да и с ВПН хз какой не наебалово и какой страны брать и т.д.

Поделитесь опытом, анонимусы.
Аноним 15/10/25 Срд 19:27:17 1387977
>>1386892
>какой страны брать
Бери ДНР или ЛНР.
Голосовых нейронок тред (TTS, STS, STT) #7 speech /speech/ Аноним 16/02/25 Вск 12:20:27 1055411 Ответ
17019563860200.mp4 477Кб, 396x298, 00:00:23
396x298
17074247947820.mp4 2886Кб, 384x480, 00:00:08
384x480
17204507036820.mp4 310Кб, 576x576, 00:00:14
576x576
17099193437742.mp4 1356Кб, 438x480, 00:00:58
438x480
Обсуждаем нейросети, связанные с синтезом, преобразованием и распознаванием речи. Не забываем публиковать свои шедевры в треде.

Прошлый тред: >> https://2ch.hk/ai/res/664162.html

Вики треда: https://2ch-ai.gitgud.site/wiki/speech/

FAQ

Q: Хочу озвучивать пасты с двача голосом Путина/Неко-Арк/и т.п.

1. Используешь любой инструмент для синтеза голоса из текста - есть локальные, есть онлайн через huggingface или в виде ботов в телеге:
https://2ch-ai.gitgud.site/wiki/speech/#синтез-голоса-из-текста-tts

Спейс без лимитов для EdgeTTS:
https://huggingface.co/spaces/NeuroSenko/rus-edge-tts-webui

Так же можно использовать проприетарный комбайн Soundworks (часть фич платная):
https://dmkilab.com/soundworks

2. Перегоняешь голос в нужный тебе через RVC. Для него есть огромное число готовых голосов, можно обучать свои модели:
https://2ch-ai.gitgud.site/wiki/speech/sts/rvc/rvc/

Q: Как делать нейрокаверы?

1. Делишь оригинальную дорожку на вокал и музыку при помощи Ultimate Vocal Remover:
https://github.com/MaHivka/ultimate-voice-models-FAQ/wiki/UVR

2. Преобразуешь дорожку с вокалом к нужному тебе голосу через RVC:
https://2ch-ai.gitgud.site/wiki/speech/sts/rvc/rvc/

3. Объединяешь дорожки при помощи Audacity или любой другой тулзы для работы с аудио

Опционально: на промежуточных этапах обрабатываешь дорожку - удаляешь шумы и прочую кривоту. Кто-то сам перепевает проблемные участки.

Качество нейрокаверов определяется в первую очередь тем, насколько качественно выйдет разделить дорожку на составляющие в виде вокальной части и инструменталки. Если в треке есть хор или беквокал, то земля пухом в попытке преобразовать это.

Нейрокаверы проще всего делаются на песни с небольшим числом инструментов - песня под соло гитару или пианино почти наверняка выйдет без серьёзных артефактов.

Q: Хочу говорить в дискорде/телеге голосом определённого персонажа.

Используй RVC (запуск через go-realtime-gui.bat) либо Voice Changer:
https://github.com/w-okada/voice-changer/blob/master/README_en.md

Гайд по Voice Changer, там же рассказывается, как настроить виртуальный микрофон:
https://github.com/MaHivka/ultimate-voice-models-FAQ/wiki/Voice‐Changer (часть ссылок похоже сдохла)

Q: Как обучить свою RVC-модель?

Гайд на русском: https://github.com/MaHivka/ultimate-voice-models-FAQ/wiki/RVC#создание-собственной-модели
Гайд на английском: https://docs.aihub.wtf/guide-to-create-a-model/model-training-rvc
Определить переобучение через TensorBoard: https://docs.aihub.wtf/guide-to-create-a-model/tensorboard-rvc
Если тыква вместо видеокарты, можно тренить в онлайне: https://www.kaggle.com/code/varaslaw/rvc-v2-no-gradio-https-t-me-aisingers-ru/notebook?scriptVersionId=143284909 (инструкция: https://www.youtube .com/watch?v=L-emE1pGUOM )

Q: Надо распознать текст с аудио/видео файла

Используй Whisper от OpenAI: https://github.com/openai/whisper
Быстрый скомпилированный для винды вариант: https://github.com/Purfview/whisper-standalone-win
Так же есть платные решения от Сбера/Яндекса/Тинькофф.

Коммерческие системы

https://elevenlabs.io перевод видео, синтез и преобразование голоса
https://heygen.com перевод видео с сохранением оригинального голоса и синхронизацией движения губ на видеопотоке. Так же доступны функции TTS и ещё что-то
https://app.suno.ai генератор композиций прямо из текста. Есть отдельный тред на доске >>

Шаблон для переката: https://2ch-ai.gitgud.site/wiki/speech/speech-shapka/
Пропущено 339 постов
68 с картинками.
Пропущено 339 постов, 68 с картинками.
Аноним 08/10/25 Срд 10:36:10 1380089
Аноны, сейчас начал использовать для великого могучего русского языка gemini-flash-tts.
Есть ли ещё какие-то годные tts для русского, сравнимые по качеству? Желательно, чтобы можно было достучаться, через api.
Локальных tts подобного качества, как я понимаю нет. Я посмотрел на piper, но качество ужасное в сравнении с английскими tts типо kokoro.
И ещё скажите, на стриме жопича видел, как ему слали донаты с нейроозвучкой, какой-то бабы. Голос мерзкий, но очень качественный. Это часть донатного функционала или какие-то отдельные нейронки?
Аноним 08/10/25 Срд 11:17:41 1380120
Аноним 15/10/25 Срд 15:43:03 1387836
Несколько дней назад решил попробовать сделать себе аудиокнигу (лучше бы просто прочитал). За это время успел протестить несколько вариантов руговорящих моделей (гугловую и несколько локальных).
Локальные запускал на 5070 TI в среде ComfyUI, чтобы не мучаться каждый раз с установкой (помучиться всё равно пришлось). Результаты следующие:
1) Google Gemini TTS Pro\Flash. В API всего 15 RPD, поэтому я тыкался в AI Studio (там как я понял нет лимитов на количество запросов). За один раз позволяет сгенерировать ~11 минут аудио, время генерации бывает по разному, когда 5 минут, когда 10. Не показывает сколько токенов занимает текст, не попал в окно - удаляешь по кускам, пока не попадёшь.
По качеству. Заебись, но после ~4-5 начинаются небольшие галюны, голос железеет и на фоне идёт писк, но в остальном очень хорошо.
Из минусов - нет автоматизации (про апи написал вышел) и у меня произошёл какой-то факап со скачиванием сгенерированного аудио. Я как ебанат сгенерировал порядка 25 11-минутных записей, а когда решил прослушать, что я там наскачивал, то выяснилось, что скачанный файл в два раза короче сгенерированного аудио. Если быть точным то после половины начинается тишина. Пробовал в разных браузерах, всё одно. При попытке открыть аудио в отдельной вкладке - крашится браузер.
2) VibeVoice Large Q4. Генерировал чанками по 250 слов, качество хорошее, иногда бывает голос начинает хрипеть, но возможно дело в качестве референсной записи (с более чистой и качественной записью я такого не заметил). Бывают ошибки в ударениях, но не очень часто. Ну и артефакты в виде рандомной музыки на фоне.
Генерирует долго (дольше, чем длится сгенерированный отрывок), при этом время генерации зависит от длины генерируемого текста. ~1.5 минуты генерация ~1 речи. ~13-14 минут на ~10 минут аудио. и ~24 минуты генерация ~20 минут аудио.
Q4 занимает чуть больше 8 Гб видеопамяти. Квантизация, если я правильно понял, затрагивает только LLM, так что на качество генерации особо не влияет (по крайней мере по сравнению с Q8).
3) VibeVoice 1.5B. Не имеет смысла, по крайней мере для русского языка. Да, занимает меньше памяти, но по качеству сильно уступает большой модели (английский акцент, плохо расставляются ударения), а время генерации остаётся +- таким-же.
4) Chatterbox TTS. Запустить модель дообученную на русский не получилось. Пробовал модели выложенные в этом репозитории niobures/Chatterbox-TTS. Модель вроде как загружается в память и вроде как начинается генерация, но дальше происходит отвал жопы с гаснущими экранами (и последующей выгрузкой модели из памяти) или полным зависанием компа. Мб дело в ComfyUI, мб в том, что я рукожоп. Если тут есть кто-то, кто запускал их, то объясните как.
5) Chatterbox Multilingual TTS (v2). Относительно быстрая (примерно 0.7-9 с. генерации на 1 с. текста). После Гугла и Вайба качество среднее. Заминки, проглатывание звуков. Главная проблема - ебучее шамканье, как будто текст читает какой-то задрот-чмошник, хотя в оригинальном голосе нет и намёка на подобное. Чтобы примерно понять как это звучит загуглите "21 век, рай для интровертов". Ещё похоже на ИИ которым озвучивают животных в ебучих клипах в ютубе/инсте. Сильнее всего заметно на мужских голосах. Генерация чанками по 500 символом на чанк, в конце чанков часто глюки (вой, пердёж и прочие непонятные звуки). В некоторых генерациях добавляются "вдохи" полсе пауз, как-будто модель воздуха набирает, чтобы читать дальше.
Требуется расстановка ударений при помощи акутов. В оригинальной модели указана зависимость к russian-text-stresser, но этот модуль требует установки старых версий библиотек, так-что нихуя автоматически не устанавливается, у меня не получилось доставить этот модуль даже вручную (опять таки возможно потому-что я рукожоп). Вместо него с горем пополам создал в ComfyUI ноду с моделью RUAccent, через которую подавал текст на вход Chatterbox.
6) openaudio s1 mini. Хуйня. Долго, на 1.5 минуты примерно 2 минуты генерации. Без копирования голоса сильный китайский акцент. С копированием голоса всё равно присутствует акцент похожий на кавказский. Нельзя расставить ударения.
7) F5-TTS дообученный для русского. Запускал вариант от Misha24-10/F5-TTS_RUSSIAN, другие, найденные на хаггинг вариант запустить не получилось. Просто, сердито и очень быстро. Читает монотонно, без интонаций и выразительности, не расставляет акценты в предложениях, но при этом не отдаёт роботом. Возможно на восприятие влияет ещё и специфика текста (условно художественный). Каких-то аномалий при генерации не заметил, голос копирует прям хорошо. И ОЧЕНЬ быстро. Генерация у меня занимала раз в 10 меньше чем сам отрывок.
Также требуется расстановка ударений в виде + перед ударными буквами. Решал тем-же RuAccent.
Короче по итогу гугл был бы заебись, если бы давал больше реквестов в день через АПИ. Возможно потом, когда модель выйдет из превью, так и будет. Через AI Studio только если слушать сразу по факту генерации ну или как-то вытягивать из кода страницы.
В плане локальных было бы здорово заставить VibeVoice работать быстрее, что-бы генерация хотя-бы укладывалась в длину сгенерированного аудио, но я не нагуглил как этого добиться. F5-TTS за счёт очень быстрой генерации оставляет возможности для пост-обработки с помощью каких-нибудь других моделей, что-бы сделать аудио более естественным, но я опять таки не нашёл ничего такого.
Мб кто-то из местных обитателей знает как добиться лучших результатов? Сделать VibeVoice быстрее или улучшить звучание от F5-TTS?
Всем общий Подскажите нейронку чтоб шмотки примерять, пользовался Wand, но надоело акки создавать. Аноним 08/10/25 Срд 21:44:50 1380868 Ответ
IMG0061.jpeg 20Кб, 320x228
320x228
Всем общий

Подскажите нейронку чтоб шмотки примерять, пользовался Wand, но надоело акки создавать.
Камнями не кидайтесь, в ии не шарю :)
Обнял поднял
Аноним 15/10/25 Срд 15:29:04 1387814
Ну ебать, нано банана же.
Нет больше никаких.
Ну в смысле кидаешь фотку одежды, кидаешь себя и просишь одеть.
Stable Diffusion технотред #20 /tech/ Аноним 11/07/25 Птн 04:39:36 1272560 Ответ
training methods.png 1034Кб, 3510x2910
3510x2910
diffusion proce[...].png 358Кб, 2546x1822
2546x1822
lr.png 252Кб, 1853x624
1853x624
performance cha[...].webp 53Кб, 1200x900
1200x900
flux arch.jpg 1196Кб, 3258x3242
3258x3242
sd3 mmdit arch.png 257Кб, 2004x1372
2004x1372
ИТТ делимся советами, лайфхаками, наблюдениями, результатами обучения, обсуждаем внутреннее устройство диффузионных моделей, собираем датасеты, решаем проблемы и экспериментируем Тред общенаправленныей, тренировка дедов, лупоглазых и фуррей приветствуются

Предыдущий тред: >>1118663 (OP)

➤ Софт для обучения

https://github.com/kohya-ss/sd-scripts
Набор скриптов для тренировки, используется под капотом в большей части готовых GUI и прочих скриптах.
Для удобства запуска можно использовать дополнительные скрипты в целях передачи параметров, например: https://rentry.org/simple_kohya_ss

https://github.com/bghira/SimpleTuner Линукс онли, бэк отличается от сд-скриптс

https://github.com/Nerogar/OneTrainer Фич меньше, чем в сд-скриптс, бэк тоже свой

➤ GUI-обёртки для sd-scripts

https://github.com/bmaltais/kohya_ss
https://github.com/derrian-distro/LoRA_Easy_Training_Scripts

➤ Обучение SDXL

https://2ch-ai.gitgud.site/wiki/tech/sdxl/

➤ Flux

https://2ch-ai.gitgud.site/wiki/nai/models/flux/

➤ Гайды по обучению

Существующую модель можно обучить симулировать определенный стиль или рисовать конкретного персонажа.

LoRA – "Low Rank Adaptation" – подойдет для любых задач. Отличается малыми требованиями к VRAM (6 Гб+) и быстрым обучением. https://github.com/cloneofsimo/lora - изначальная имплементация алгоритма, пришедшая из мира архитектуры transformers, тренирует лишь attention слои, гайды по тренировкам:
https://rentry.co/waavd - гайд по подготовке датасета и обучению LoRA для неофитов
https://rentry.org/2chAI_hard_LoRA_guide - ещё один гайд по использованию и обучению LoRA
https://rentry.org/59xed3 - более углубленный гайд по лорам, содержит много инфы для уже разбирающихся (англ.)

LyCORIS (Lora beYond Conventional methods, Other Rank adaptation Implementations for Stable diffusion) - проект по созданию алгоритмов для обучения дополнительных частей модели. Ранее имел название LoCon и предлагал лишь тренировку дополнительных conv слоёв. В настоящий момент включает в себя алгоритмы LoCon, LoHa, LoKr, DyLoRA, IA3, а так же на последних dev ветках возможность тренировки всех (или не всех, в зависимости от конфига) частей сети на выбранном ранге:
https://github.com/KohakuBlueleaf/LyCORIS

Подробнее про алгоритмы в вики https://2ch-ai.gitgud.site/wiki/tech/lycoris/

Dreambooth – для SD 1.5 обучение доступно начиная с 16 GB VRAM. Ни одна из потребительских карт не осилит тренировку будки для SDXL. Выдаёт отличные результаты. Генерирует полноразмерные модели:
https://rentry.co/lycoris-and-lora-from-dreambooth (англ.)
https://github.com/nitrosocke/dreambooth-training-guide (англ.) https://rentry.org/lora-is-not-a-finetune (англ.)

Текстуальная инверсия (Textual inversion), или же просто Embedding, может подойти, если сеть уже умеет рисовать что-то похожее, этот способ тренирует лишь текстовый энкодер модели, не затрагивая UNet:
https://rentry.org/textard (англ.)

➤ Тренировка YOLO-моделей для ADetailer:
YOLO-модели (You Only Look Once) могут быть обучены для поиска определённых объектов на изображении. В паре с ADetailer они могут быть использованы для автоматического инпеинта по найденной области.

Подробнее в вики: https://2ch-ai.gitgud.site/wiki/tech/yolo/

Не забываем про золотое правило GIGO ("Garbage in, garbage out"): какой датасет, такой и результат.

➤ Гугл колабы

﹡Текстуальная инверсия: https://colab.research.google.com/github/huggingface/notebooks/blob/main/diffusers/sd_textual_inversion_training.ipynb
﹡Dreambooth: https://colab.research.google.com/github/TheLastBen/fast-stable-diffusion/blob/main/fast-DreamBooth.ipynb
﹡LoRA https://colab.research.google.com/github/hollowstrawberry/kohya-colab/blob/main/Lora_Trainer.ipynb

➤ Полезное

Расширение для фикса CLIP модели, изменения её точности в один клик и более продвинутых вещей, по типу замены клипа на кастомный: https://github.com/arenasys/stable-diffusion-webui-model-toolkit
Гайд по блок мерджингу: https://rentry.org/BlockMergeExplained (англ.)
Гайд по ControlNet: https://stable-diffusion-art.com/controlnet (англ.)

Подборка мокрописек для датасетов от анона: https://rentry.org/te3oh
Группы тегов для бур: https://danbooru.donmai.us/wiki_pages/tag_groups (англ.)
NLP тэггер для кэпшенов T5: https://github.com/2dameneko/ide-cap-chan (gui), https://huggingface.co/Minthy/ToriiGate-v0.3 (модель), https://huggingface.co/2dameneko/ToriiGate-v0.3-nf4/tree/main (квант для врамлетов)

Оптимайзеры: https://2ch-ai.gitgud.site/wiki/tech/optimizers/
Визуализация работы разных оптимайзеров: https://github.com/kozistr/pytorch_optimizer/blob/main/docs/visualization.md

Гайды по апскейлу от анонов:
https://rentry.org/SD_upscale
https://rentry.org/sd__upscale
https://rentry.org/2ch_nai_guide#апскейл
https://rentry.org/UpscaleByControl

Старая коллекция лор от анонов: https://rentry.org/2chAI_LoRA

Гайды, эмбеды, хайпернетворки, лоры с форча:
https://rentry.org/sdgoldmine
https://rentry.org/sdg-link
https://rentry.org/hdgfaq
https://rentry.org/hdglorarepo
https://gitgud.io/badhands/makesomefuckingporn
https://rentry.org/ponyxl_loras_n_stuff - пони лоры
https://rentry.org/illustrious_loras_n_stuff - люстролоры

➤ Legacy ссылки на устаревшие технологии и гайды с дополнительной информацией

https://2ch-ai.gitgud.site/wiki/tech/legacy/

➤ Прошлые треды

https://2ch-ai.gitgud.site/wiki/tech/old_threads/

Шапка: https://2ch-ai.gitgud.site/wiki/tech/tech-shapka/
Пропущено 484 постов
92 с картинками.
Пропущено 484 постов, 92 с картинками.
Аноним 15/10/25 Срд 13:31:50 1387741
Сап, вкатун в треде, есть 2х 3090, хочу начать с Масуби и Квена.
Гугл выдает какую-то непонятную хуйню, гайды и гуи конкретно для Вана 2.1.
Можете ткнуть в нормальный гайд?
Аноним 15/10/25 Срд 14:11:06 1387770
>>1387741
Какой тебе гайд нужен? Открывай документацию к твоему говну и читай, в musubi есть туториал. Алсо, сразу имей в виду что квен от лор лучше не станет, такое же мыло будет всегда.
Аноним 15/10/25 Срд 15:05:09 1387805
image.png 433Кб, 2374x948
2374x948
>>1387770
Есть воркфлоу для конкретно Вана пикрил, а я хочу универсальный воркфлоу, чтобы я мог генерить одной хуйней под разные таргеты (Квен - просто для начала).
Двач, я топ 400 мирового рейтинга соревновательного мл, спрашивай свои вопросы. Планирую стать кагл Аноним 09/08/25 Суб 16:31:51 1308340 Ответ
Screenshot 2025[...].png 8Кб, 380x117
380x117
Двач, я топ 400 мирового рейтинга соревновательного мл, спрашивай свои вопросы.
Планирую стать кагл грандмастером
Девять лет опыта работы над разными задачами, так что могу пояснить буквально ща любую хуйню
Пропущено 32 постов
1 с картинками.
Пропущено 32 постов, 1 с картинками.
Аноним 13/10/25 Пнд 14:54:58 1385437
>>1382955
Да нет особо никакого списка моделей. Я в голове держу, что вот есть 3-4 основных бустинга и бустинги хорошо работают на 'неровных' данных, не гладких
Есть ДЛ, который работает хорошо на гладких данных (условно все, что сгенерировано природой)
И есть линейные модели на случай, если я очень хорошо понимаю задачу и мне надо чисто коэфы подобрать

Тренировать что-то в ноутбуках мертвяк, я на vast.ai снимаю тачку и на ней кручу все. Кагловские ноутбуки с каждым днем все больше и больше закручивают, так что арендное железо- топ.
Ну и я сначала прототип на своем рабочем маке пишу, а потом уже раскручиваю на облачной тачке
Аноним 14/10/25 Втр 21:03:24 1387102
>>1308340 (OP)
Как прикрутить inference engine к LLM?
То есть, допустим, есть спецификация ЯП, много документации по нему и всяческой литературы, есть конпелятор этого языка, ещё есть стандартная библиотека и сотни нестандартного, но точно работающего кода. Как LLM прикрутить к этому всему, чтобы получилась экспертная система, понимающая язык натуралов и пишушая не data-driven код, а воспринимающая ЯП как факты-правила, а конпелятор как чёрный ящик, в который надо шмалять кодом?
Аноним 15/10/25 Срд 13:49:49 1387763
>>1387102
Хз, тут весь JetBrains над этим уже 4 года голову ломает, а ты сам хочешь запилить
Anime Diffusion #227 /nai/ Аноним 07/10/25 Втр 15:52:58 1379093 Ответ
1654303049204.png 26802Кб, 4416x4416
4416x4416
1672247566499.jpg 4197Кб, 2960x3840
2960x3840
1711268218555.png 6201Кб, 3096x2120
3096x2120
1635034036574.jpg 2191Кб, 2304x3456
2304x3456
1734455239512.png 2358Кб, 1344x1728
1344x1728
1720991694406.png 1900Кб, 1824x1248
1824x1248
1666550349203.jpg 564Кб, 1536x1536
1536x1536
1626450524512.jpg 1693Кб, 2048x2048
2048x2048
Генерируем тяночек!

Прошлый тред: >>1366952 (OP) https://arhivach.vc/thread/1243470/

Схожие тематические треды
• SD-тред (не аниме): >>1365529 (OP)
• Технотред: >>1272560 (OP)
• Фурри-тред: https://2ch.su/fur/res/374311.html

FAQ
https://2ch-ai.gitgud.site/wiki/nai

Установка
• NVidia: https://rentry.co/2ch_nai_guide
• AMD: https://2ch-ai.gitgud.site/wiki/nai/install/amd
• Облака: https://2ch-ai.gitgud.site/wiki/nai/install/clouds

Дополнительная информация
• Интерфейсы: https://2ch-ai.gitgud.site/wiki/nai/interfaces
• Модели: https://2ch-ai.gitgud.site/wiki/nai/models
• Промпты: https://2ch-ai.gitgud.site/wiki/nai/prompts
• Апскейл: https://2ch-ai.gitgud.site/wiki/nai/upscale
• LoRA: https://2ch-ai.gitgud.site/wiki/nai/lora
• ControlNet: https://2ch-ai.gitgud.site/wiki/nai/controlnet

Прочее
• CivitAI: https://civitai.com
• Каталог ссылок от форчанеров: https://rentry.co/sdg-link
• Шаблон для переката: https://rentry.co/nwhci
Пропущено 511 постов
226 с картинками.
Пропущено 511 постов, 226 с картинками.
Аноним 15/10/25 Срд 15:48:19 1387843
2025-10-15-4 (1[...].png 2599Кб, 1536x1536
1536x1536
2025-10-15-4 (1[...].png 3272Кб, 1536x1536
1536x1536
Аноним 15/10/25 Срд 15:59:49 1387849
image 786Кб, 2304x3456
2304x3456
Жду перекот
Аноним 15/10/25 Срд 16:05:00 1387852
Локальные языковые модели (LLM): LLaMA, Gemma, DeepSeek и прочие №171 /llama/ Аноним 12/10/25 Вск 01:49:57 1384087 Ответ
Llama 1.png 818Кб, 630x900
630x900
Эффективность к[...].png 92Кб, 1399x1099
1399x1099
Реальная длина [...].png 671Кб, 1602x2476
1602x2476
A2b1262858b8349[...].jpg 555Кб, 2000x1502
2000x1502
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!

Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.

Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.

Официальная вики треда с гайдами по запуску и базовой информацией: https://2ch-ai.gitgud.site/wiki/llama/

Инструменты для запуска на десктопах:
• Отец и мать всех инструментов, позволяющий гонять GGML и GGUF форматы: https://github.com/ggml-org/llama.cpp
• Самый простой в использовании и установке форк llamacpp: https://github.com/LostRuins/koboldcpp
• Более функциональный и универсальный интерфейс для работы с остальными форматами: https://github.com/oobabooga/text-generation-webui
• Заточенный под ExllamaV2 (а в будущем и под v3) и в консоли: https://github.com/theroyallab/tabbyAPI
• Однокнопочные инструменты на базе llamacpp с ограниченными возможностями: https://github.com/ollama/ollama, https://lmstudio.ai
• Универсальный фронтенд, поддерживающий сопряжение с koboldcpp и text-generation-webui: https://github.com/SillyTavern/SillyTavern
• Альтернативный фронт: https://github.com/kwaroran/RisuAI

Инструменты для запуска на мобилках:
• Интерфейс для локального запуска моделей под андроид с llamacpp под капотом: https://github.com/Mobile-Artificial-Intelligence/maid
• Альтернативный вариант для локального запуска под андроид (фронтенд и бекенд сепарированы): https://github.com/Vali-98/ChatterUI
• Гайд по установке SillyTavern на ведроид через Termux: https://rentry.co/STAI-Termux

Модели и всё что их касается:
• Актуальный список моделей с отзывами от тредовичков: https://rentry.co/2ch_llm_2025 (версия для бомжей: https://rentry.co/z4nr8ztd )
• Неактуальные списки моделей в архивных целях: 2024: https://rentry.co/llm-models , 2023: https://rentry.co/lmg_models
• Миксы от тредовичков с уклоном в русский РП: https://huggingface.co/Aleteian и https://huggingface.co/Moraliane
• Рейтинг моделей по уровню их закошмаренности цензурой: https://huggingface.co/spaces/DontPlanToEnd/UGI-Leaderboard
• Сравнение моделей по сомнительным метрикам: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard
• Сравнение моделей реальными пользователями по чуть менее сомнительным метрикам: https://chat.lmsys.org/?leaderboard

Дополнительные ссылки:
• Готовые карточки персонажей для ролплея в таверне: https://www.characterhub.org
• Перевод нейронками для таверны: https://rentry.co/magic-translation
• Пресеты под локальный ролплей в различных форматах: https://huggingface.co/Virt-io/SillyTavern-Presets
• Шапка почившего треда PygmalionAI с некоторой интересной информацией: https://rentry.co/2ch-pygma-thread
• Официальная вики koboldcpp с руководством по более тонкой настройке: https://github.com/LostRuins/koboldcpp/wiki
• Официальный гайд по сопряжению бекендов с таверной: https://docs.sillytavern.app/usage/how-to-use-a-self-hosted-model/
• Последний известный колаб для обладателей отсутствия любых возможностей запустить локально: https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing
• Инструкции для запуска базы при помощи Docker Compose: https://rentry.co/oddx5sgq https://rentry.co/7kp5avrk
• Пошаговое мышление от тредовичка для таверны: https://github.com/cierru/st-stepped-thinking
• Потрогать, как работают семплеры: https://artefact2.github.io/llm-sampling/
• Выгрузка избранных тензоров, позволяет ускорить генерацию при недостатке VRAM: https://www.reddit.com/r/LocalLLaMA/comments/1ki7tg7

Архив тредов можно найти на архиваче: https://arhivach.hk/?tags=14780%2C14985

Шапка в https://rentry.co/llama-2ch, предложения принимаются в треде.

Предыдущие треды тонут здесь:
>>1378253 (OP)
>>1372399 (OP)
Пропущено 504 постов
57 с картинками.
Пропущено 504 постов, 57 с картинками.
Аноним 14/10/25 Втр 21:23:52 1387130
>>1387125
Ты ошибаешься анончик, она впринципе не может в рп. Нахуя ты её вспомнил вообще? Давай туда же модели классификаторы и всякое вроде https://huggingface.co/Qwen/Qwen3Guard-Gen-4B хуле
ПЕРЕКАТ Аноним # OP 14/10/25 Втр 21:23:53 1387131
изображение.png 3Кб, 91x71
91x71
Аноним 15/10/25 Срд 09:33:19 1387591
кто нибудь знает как делать запросы в гпт чтобы он выдавал ответы на всякую запрещенку? Аноним 14/10/25 Втр 17:26:04 1386817 Ответ
изображение.png 63Кб, 220x148
220x148
изображение.png 19Кб, 300x168
300x168
кто нибудь знает как делать запросы в гпт чтобы он выдавал ответы на всякую запрещенку?
Пропущено 1 постов
2 с картинками.
Пропущено 1 постов, 2 с картинками.
Аноним 14/10/25 Втр 19:40:46 1386981
бамп
Аноним 14/10/25 Втр 21:07:34 1387106
17066206746040.jpg 485Кб, 2816x2112
2816x2112
Аноним 14/10/25 Втр 21:10:47 1387111
>>1386981
А сходи немного есть посмотри ра ли там к холодильнику свининки и.
3D AI /3d/ Аноним 24/04/25 Чтв 15:55:36 1173113 Ответ
image 384Кб, 686x386
686x386
image 1147Кб, 1280x720
1280x720
image 646Кб, 1383x701
1383x701
image 5736Кб, 2824x1588
2824x1588
Пропущено 315 постов
116 с картинками.
Пропущено 315 постов, 116 с картинками.
Аноним 12/10/25 Вск 22:32:25 1384798
image.png 3373Кб, 2541x1575
2541x1575
image.png 1990Кб, 2261x1679
2261x1679
image.png 2673Кб, 2496x1687
2496x1687
А чё молчим? v3 от пиздоглазых давно вышла.
Аноним 14/10/25 Втр 10:12:10 1386468
>>1384798
А толку, как был неюзабельный кал так и остался.
Аноним 14/10/25 Втр 19:21:28 1386955
image.png 143Кб, 1024x757
1024x757
>>1386468
Кал то лучше стал. Прогрессируем помаленьку.
Настройки X
Ответить в тред X
15000
Добавить файл/ctrl-v
Стикеры X
Избранное / Топ тредов