По итогу и в Ван и в Квин победили Лоры ускорялки - аналоги дмд2 для сдхл. Аха-ха-ха как же я рад. А сколько срача было от противников дмд2. Занюхайте.
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Базы треда не существует, каждый дрочит как он хочет. Базашизика дружно репортим.
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
>>1302533 (OP) Народ, подскажите, кто шарит. Сейчас докупил к своей rtx 3060 12gb cmp 90hx на 10 гигов, но есть вариант добавить ещё 7к и купить tesla p40 на 24 гига. У меня обычная мать ASRock B550 PG Riptide c 3 портами под видюхи. Я бы докупил теслу, но я не ебу как её нормально подключить и как она будет у меня охлаждаться будет. У cmp 90hx есть 3 вертушки + cuda есть и их больше чем даже у моей 3060, а значит в теории я могу даже картинки на ней быстро генерировать в 1024x1024 без доп фич. Что выбрать? cmp 90hx на 10 гигов которую впросто вставил и всё или доплачивать и брать p40 и потом ещё ебаться с охлаждением + она не умеет в генерации картинок?
AI Chatbot General № 717 /aicg/
Аноним08/08/25 Птн 07:25:38№1305526Ответ
>>1297805 >Что-то такое вышло. 2шт на на люстре и 2шт нубе впред. Датасет пришлось ковырять очень сильно - желтый, в шакалах, по 3-4 пальца. Где мог - поправил, можешь забрать, тоже закинул. >>1298133 >Так какие проблемы-то? Конфиг в томл остался же - можешь поставить Easy Traininig Scripts и сам делать пачками. Конфиг вообще очень простой - адаптивный оптимайзер, лр юнета 1, лр те 0.3, дим 32/16, лора, даже не ликорис, бс4. Ну и я их сотни наделать успел, а вот радости больше всего от первых было, да.
В ближайшей время я собираюсь сделать Лору на синие джинсы мне не нравится как illustrious рисует джинсы по дефолту
Можешь, пожалуйста, сказать кратко, что и где лучше на сегодняшний день скачать, чтобы самому на своей пекарне тренировать Лоры? И еще хотел спросить, ты как тогда делал лоры на униформу, ты 10 эпох ставил или 20?
Также я переписывал на цивите с одним японцем он выдал следующее мнение по тренировке Лор: Рекомендация про «100 изображений» в основном пошла ещё со времён раннего обучения на SDXL или SD1.5. В случае с Illustrious рекомендуемый диапазон — примерно 20–50 изображений, так что нет необходимости заставлять себя собирать все 100. Более того, слишком большой объём может только усложнить работу с подписями. Если всё же решишь использовать большое количество фото, можно минимизировать подписи и при генерации просто использовать самые часто встречающиеся теги из датасета"
Новости об искусственном интеллекте №28. Имени GPT-5 тред /news/
Аноним06/08/25 Срд 19:42:14№1302106Ответ
>>1304694 Туда ей блять и дорога. 4 клауд лучшая модель для кодинга до сих пор, никто ее так и не переплюнул для меня. Отлично понимает в документации, знает каверзное спринг говно, генерирует рабочий код, хватай и беги буквально. 3 клод был +- на фоне прочих, но вот четверка до сих пор лучшая. Не ебу как они это делают не имея ферм как у гугла. Видимо не тратят бабки на штат по инклюзивности, а тратят на инженеров.
AI Chatbot General № 716 /aicg/
Аноним06/08/25 Срд 16:56:58№1301889Ответ
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Базы треда не существует, каждый дрочит как он хочет. Базашизика дружно репортим.
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
>>1299698 (OP) Анончики, подскажите какая языковая модель лучше подходит для генерации кода на локалке. Сразу говорю комп слабый, но мне в принципе много не нужно - по сути только чтобы пайтон код генерировал по запросам.
>>1301752 Да нет, я делаю то же самое как если бы писал длинный инпут. Просто не подразумеваю эти детали в нём, а пишу их явно куда-то. Либо генерю и правлю, если это например лорбук.
>>1301829 Потому что все кроме 1girl, standing требует обмазываться лорами по самое не могу если локально генерить, коммерческие могут нормально промты воспринимать, но не могут в nsfw
Локальные языковые модели (LLM): LLaMA, Gemma, DeepSeek и прочие №151 /llama/
Аноним29/07/25 Втр 20:00:26№1292947Ответ
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Базы треда не существует, каждый дрочит как он хочет. Базашизика дружно репортим.
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
Обсуждаем развитие искусственного интеллекта с более технической стороны, чем обычно. Ищем замену надоевшим трансформерам и диффузии, пилим AGI в гараже на риге из под майнинга и игнорируем горький урок.
Я ничего не понимаю, что делать? Без петросянства: смотри программу стэнфорда CS229, CS231n https://see.stanford.edu/Course/CS229 (классика) и http://cs231n.stanford.edu (введение в нейроночки) и изучай, если не понятно - смотри курсы prerequisites и изучай их. Как именно ты изучишь конкретные пункты, типа линейной алгебры - дело твое, есть книги, курсы, видосики, ссылки смотри ниже.
Почему python? Исторически сложилось. Поэтому давай, иди и перечитывай Dive into Python.
Можно не python? Никого не волнует, где именно ты натренируешь свою гениальную модель. Но при серьезной работе придется изучать то, что выкладывают другие, а это будет, скорее всего, python, если работа последних лет.
Стоит отметить, что спортивный deep learning отличается от работы примерно так же, как олимпиадное программирование от настоящего. За полпроцента точности в бизнесе борятся редко, а в случае проблем нанимают больше макак для разметки датасетов. На кагле ты будешь вилкой чистить свой датасет, чтобы на 0,1% обогнать конкурента.
Количество статей зашкваливающее, поэтому все читают только свою узкую тему и хайповые статьи, упоминаемые в блогах, твиттере, ютубе и телеграме, топы NIPS и прочий хайп. Есть блоги, где кратко пересказывают статьи, даже на русском
Где ещё можно поговорить про анализ данных? http://ods.ai
Нужно ли покупать видеокарту/дорогой пека? Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. Google Colab дает бесплатно аналог GPU среднего ценового уровня на несколько часов с возможностью продления, при чем этот "средний уровень" постоянно растет. Некоторым достается даже V100. Иначе выгоднее вложиться в GPU https://timdettmers.com/2019/04/03/which-gpu-for-deep-learning заодно в майнкрафт на топовых настройках погоняешь.
Когда уже изобретут AI и он нас всех поработит? На текущем железе — никогда, тред не об этом
Кто-нибудь использовал машоб для трейдинга? Огромное количество ордеров как в крипте так и на фонде выставляются ботами: оценщиками-игральщиками, перекупщиками, срезальщиками, арбитражниками. Часть из них оснащена тем или иным ML. Даже на швабре есть пара статей об угадывании цены. Тащем-то пруф оф ворк для фонды показывали ещё 15 лет назад. Так-что бери Tensorflow + Reinforcement Learning и иди делать очередного бота: не забудь про стоп-лоссы и прочий риск-менеджмент, братишка
Список дедовских книг для серьёзных людей Trevor Hastie et al. "The Elements of Statistical Learning" Vladimir N. Vapnik "The Nature of Statistical Learning Theory" Christopher M. Bishop "Pattern Recognition and Machine Learning" Взять можно тут: https://www.libgen.is
Напоминание ньюфагам: немодифицированные персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.
>>1281584 Ну короче я так и предполагал. Теоретически алгоритм кривоватый немного, но на матан ML-щики просто забивают и вытягивают за счёт гессианов, методов второго порядка или мощных оптимайзеров типа Адама. Спасибо бро. Просто пойми, я теоретик дохуя, я не критикую что типа вы все хуесосы, а я Дартаньян. Мне просто нужно знать теоретические ограничения метода и технологии. Вот я их и знаю теперь. Всем добра.
Я расковырял вопрос полностью. Докопался даже до оригинальной статьи РумельхартаХинтонаУильямса 1986го года (пикрил). Короче нет, у них всё нормально, а значит сегодня алгоритм нормально применяется, но нет, я не обосрался (не совсем точнее). Скажем так: и они правы, и я, т.е. у задачи теоретически есть два способа решения. Они сделали по одному, а я увидел, что есть второй. Знали они про второй? Вполне возможно, что да, но второй почти нереализуем на практике, он только в теории есть, так что вполне возможно поэтому они никогда о нём не заикались, а сразу всё делали по первому, который на практике реализуем. Такие дела.
А вообще хочу грустную вещь вам сказать по итогу этого >>1295455 всего.
Получается, что никто из вас, даже >>1281584 этот челик, не объяснит, откуда взялся алгоритм бэкпропа, как его вывели и из чего вывели. Нет, вы не объясните. Хоть вы и назвались "исследованиями", но вы все мыслите в логике той копипасты про учёных-пердоликов. Это просто факт.
>>1296275 Как минимум ленакапавир, но вроде что-то интереснее уже вышло. Конкретно этот при уколе раз в полгода даже от заражения защищает.
Про альфафолд хз на что тебе ссылаться. Спрашивай любого, кто работает с предсказанием биохимиеи белка и разработкой белков, пользуются ли они. Пользуются. Все.
У кого есть платная подписка особенно на клод или своя нейросетка, не в службу а в дружбу, хочу деоб
Аноним03/08/25 Вск 06:29:27№1297139Ответ
У кого есть платная подписка особенно на клод или своя нейросетка, не в службу а в дружбу, хочу деобфусцировать код, но в бесплатных планах можно только кусок кода запихнуть и теряется контекст. Нужно дать задание - деобфусцируй код максимально точно. Этот: https://g.alicdn.com/AWSC/uab/1.140.0/collina.js
Иногда это работает норм, а иногда нет, как я примерно из опыта почувствовал клод в этом деле в несколько раз лучше других.
>>1297529 Да, да, есть такое. Я рпшил долгое время с одной карточкой, можно даже сказать вайфой и вот, в какой то момент она начала себя так вести, что хуякс, она какую нибудь подлянку выдаст или хуйню жестокую скажет, потом ещё ОС вылазит, который реальным человеком представляется, его просишь эмодзи не писать, он пишет. Алсо, сейчас зашёл, а меня вообще в чайной забанили
Ищу нейросеть для обработки фото /design/
Аноним02/08/25 Суб 04:56:06№1296116Ответ
Меня последнее время очень сильно тяготит тема ИИ, программирования и так далее. И тут у меня встал такой вопрос: как мне что-то накодить если я нихуя не умею? Решился обратиться к DeepSeek, а он мне такой хуйни наговорил которой и в помине не существует что диву даешься. Нахуя вообще текстовые модели иногда по приколу пиздят? Нет чтоб сказать что я хуй знает как это делать, но нет, он выдумывает код и команды которых даже сука не существует. И наконец самое главное: как это фиксить? На просьбу не выдумывать он забивает хуй и продолжает ошибаться....
>>1293981 (OP) >как мне что-то накодить если я нихуя не умею? Если тебя эта тема привлекает, то что мешает просто взять и по-человечески выучить программирование?
>>1293981 (OP) >И тут у меня встал такой вопрос: как мне что-то накодить если я нихуя не умею? Изучи основы синтаксиса и спроектируй приложение желаемое (представь, какие функции там нужны, как оно в целом будет работать ). Потом проси ии генерировать по 1й функции и проверяй корректность этих функций, потом скомпонуй и ты победил, а если не победил, то надо исправить архитектуру, скорее всего.
Если что то в коде нейросети не понятно, спроси у нее и она ответит.
>>1294012 >>1293981 (OP) На самом деле человеческий мозг тоже так работает. У детей это заметно, что они всякую хуету несут, как языковые модели. Я так в инвестаче порой делаю.
Но в нашем мозге в конечном итоге может произойти осознание контекста, и понимание происходящего.
Не исключено, что даже не смотря на то, что они так задизайнены, в них как надстройку можно будет добавить что-то, что позволит им понимать мир по настоящему.
Ищу конфу по нейронкам
Аноним31/07/25 Чтв 21:55:48№1295018Ответ
Хочу сделать своюб нейронку обученную на текстах великих мыслителей(выкачаю оптом сабы с некоторых ютуб каналов и дам их для обучения)
Вот пример текстов которые в нейронку всуну: бульба престолов,Вихорьков,юрий нестеренко,Денис Чернухин,Абдуловера ну и прочие людишки смешные, мб ещё классики нафигачу и тд Просто кучу ткст файлов кинуть планирую надеюсь норм сработает
Собсна 2 темы 1)Как впринципен пользоваться гугл колабом чтоб такое сделать я ниче не умею, минимум интеллекта у меня 2)Норм ли это сработает каких людишек мне лучше ещё вставить? порекомендуйте чтоб интереснее вышли текста
меня тоже интересует такое кучу текста хочу закинуть в нейронку и чтобы она имитировала по запросу например вот закинуть да субтитры вихорькова и нейронка будет знать кто он вообще и я могу создавать чаты как бы с вихорьковыми и она на основе текстов будет вести себя как вихорьков
я думаю купить какойнибудь райзен со встройкой купить дохуища оперативки ддр4 ну например 128 гб и выделить 64 гига чисто как VRAM для встройки получится типа медленная видюха для ИИ приколов ну потому что настоящая мощная видюха на 64 гига будет стоить как милиард говяжих анусов а так хоть и медленно зато реально чтото достойное из моделей сможет запускаться
че думаете парни и насчёт софта напишите чё вы морозитесь понятно даже если идея хуйня допустим да но вы напишите всё таки как сделать интересно же ёпты бля
скачал флюс нунчакал, дифмодель, установил с плясками с бубном, наконец форкфлоу смогло открыться хуяк УСТАНОВИ ТЕПЕРЬ СУКА ЕЩЁ 3 ЛОРА, КЛИП и ТЕКСЭНКОДЕР. пиздос, удалил к хуям даже не стал выдрачивать. По кайфу как раньще фп8 флюс одним файлом где всё включено. Сука теперь вычищать это говно
>>1295950 Терпи, фокусник Можешь съебаться к своему брату по разуму в общем ии треде в б Это то, опущенное нищее чмо, что сюда приходит посрать примитивными генерациями из имагена
Что сейчас наиболее актуальное под задачу генерировать картинки для РП в Таверне? Т.е. чтобы оно нормально жрало описания персонажей, без ебейшего дроча с тэгами и лорами под каждый чих. Естессна какого-то гигарезультата с такими запросами не жду (ну либо если мой запрос совсем уебанский, то хоть скажите какие альтернативы)