>>1205137 >нельзя в чат жепете с сказать: "A ну-ка открой новый физический закон!". Так и кожаному чювячку нельзя сказать "открой новый физический закон!". Ему нужно сказать: изучи 200 существующих работ и найди гипотетическую закономерность, которую мы будем практически проверять за 1е12 деняг.
AI Chatbot General № 682 /aicg/
Аноним16/05/25 Птн 13:32:07№1205153Ответ
>>1208175 А, лол, беру слова обратно тогда, действительно так. Но анон, ну ёпта. Макрос {{char}}? Тебя Мерчант покусал? Что еще хуже, у тебя имя на русском, и оно в английский промпт подставляется. Задумка-то годная, не спорю, но вот исполнение...
>>1208189 Я поставил русское имя чтобы оно в чате было тоже русским. Похуй, гемини сожрёт всё. Уже 2 раза покумил на карточку, доволен как слон. Жаль только негатив биас гемини со временем превращает её в тупое и злобное животное как и любого дом чара.
ИТТ обсуждаем опыт нейродроча в своих настоящих задачах. Это не тред "а вот через три года" - он только для обмена реальными историями успеха, пусть даже очень локального.
Мой опыт следующий (golang). Отобрал десяток наиболее изолированных тикетов, закрыть которые можно, не зная о проекте ничего. Это весьма скромный процент от общего кол-ва задач, но я решил ограничится идеальными ситуациями. Например, "Проверить системные требования перед установкой". Самостоятельно разбил эти тикеты на подзадачи. Например, "Проверить системные требования перед установкой" = "Проверить объем ОЗУ" + "Проверить место на диске" + ... Ввел все эти подзадачи на английском (другие языки не пробовал по очевидной причине их хуевости) и тщательно следил за выводом.
Ответ убил🤭 Хотя одну из подзадач (найти кол-во ядер) нейронка решила верно, это была самая простая из них, буквально пример из мануала в одну строчку. На остальных получалось хуже. Сильно хуже. Выдавая поначалу что-то нерабочее в принципе, после длительного чтения нотаций "There is an error: ..." получался код, который можно собрать, но лучше было бы нельзя. Он мог делать абсолютно что угодно, выводя какие-то типа осмысленные результаты.
Мой итог следующий. На данном этапе нейрогенератор не способен заменить даже вкатуна со Скиллбокса, не говоря уж о джунах и, тем более, миддлах. Даже в идеальных случаях ГПТ не помог в написании кода. Тот мизерный процент решенных подзадач не стоил труда, затраченного даже конкретно на них. Но реальная польза уже есть! Чатик позволяет узнать о каких-то релевантных либах и методах, предупреждает о вероятных оказиях (например, что, узнавая кол-во ядер, надо помнить, что они бывают физическими и логическими).
И все же, хотелось бы узнать, есть ли аноны, добившиеся от сетки большего?
ИТТ делимся советами, лайфхаками, наблюдениями, результатами обучения, обсуждаем внутреннее устройство диффузионных моделей, собираем датасеты, решаем проблемы и экспериментируемТред общенаправленныей, тренировка дедов, лупоглазых и фуррей приветствуются
Существующую модель можно обучить симулировать определенный стиль или рисовать конкретного персонажа.
✱ LoRA – "Low Rank Adaptation" – подойдет для любых задач. Отличается малыми требованиями к VRAM (6 Гб+) и быстрым обучением. https://github.com/cloneofsimo/lora - изначальная имплементация алгоритма, пришедшая из мира архитектуры transformers, тренирует лишь attention слои, гайды по тренировкам: https://rentry.co/waavd - гайд по подготовке датасета и обучению LoRA для неофитов https://rentry.org/2chAI_hard_LoRA_guide - ещё один гайд по использованию и обучению LoRA https://rentry.org/59xed3 - более углубленный гайд по лорам, содержит много инфы для уже разбирающихся (англ.)
✱ LyCORIS (Lora beYond Conventional methods, Other Rank adaptation Implementations for Stable diffusion) - проект по созданию алгоритмов для обучения дополнительных частей модели. Ранее имел название LoCon и предлагал лишь тренировку дополнительных conv слоёв. В настоящий момент включает в себя алгоритмы LoCon, LoHa, LoKr, DyLoRA, IA3, а так же на последних dev ветках возможность тренировки всех (или не всех, в зависимости от конфига) частей сети на выбранном ранге: https://github.com/KohakuBlueleaf/LyCORIS
✱ Текстуальная инверсия (Textual inversion), или же просто Embedding, может подойти, если сеть уже умеет рисовать что-то похожее, этот способ тренирует лишь текстовый энкодер модели, не затрагивая UNet: https://rentry.org/textard (англ.)
➤ Тренировка YOLO-моделей для ADetailer: YOLO-модели (You Only Look Once) могут быть обучены для поиска определённых объектов на изображении. В паре с ADetailer они могут быть использованы для автоматического инпеинта по найденной области.
>>1203209 > Да я в курсе, было одно время желание въебать все принципы теории хаоса (ну конкретно достижение edge of chaos как идеальной точки) и всякие физические постоянные константы вместе с фракталами Кароче ради прекола сделал фрактальный фильтр для signsgd через фрактальную маску важности, декомпозицию градиента и скользящее окно внимания. Ну типа принцип самоподобия фракталов для оценки важности. Получилось отлично, предсказуемо и минимум говняка и отклонений от датасета за исключением сильной агрессии. Погуглил есть ли оптимы с фрактальными фильтрами и чет никто не сделал еще похоже, topk и snr фильтры обычные есть, а фрактальчиков нема. Там еще минусик вроде что значения в одномерное пространство переводятся, ну то есть 2д слом конв не будут нативными, топк можно ко всему применять если что. Еще бы уметь кодить самому это говно, а то гпт контекст оптимайзера постоянно теряет и предлагает впиздячить еще больше кала в код.
>>1204369 У тебя там любой бред что-ли заебись работать начинает с первого раза? Че ты там такое тренишь интересно.
>фрактальный фильтр для signsgd через фрактальную маску важности, декомпозицию градиента и скользящее окно внимания. Ну типа принцип самоподобия фракталов для оценки важности. Непонятно без кода, я такие фильтры ни разу не трогал, не шарю за них. Для одного параметра градиент только от него учитывается или от других тоже? >Еще бы уметь кодить самому Ллмки быстрее научатся.
Я все пытаюсь понять как бофт работает. Ну типа я могу представить как матрица на матрицу в голове умножается. По дефолтной схеме очевидно. До меня чет не сразу доперло что если умножений несколько их можно так же застакать и визуализировать как одно. Нашел такие визуализации https://pytorch.org/blog/inside-the-matrix/, там даже конструктор есть интерактивный, тоже можно стакать умножения, но чуть не так как я себе это представляю в деталях. Идея то вроде понятна, но надо в голове все собрать на каком-нибудь мелком примере.
>>1204588 >У тебя там любой бред что-ли заебись работать начинает с первого раза? Ну не с первого раза и не совсем корректно, но в принципе да. >Че ты там такое тренишь интересно. Все подряд, для точных тестов это ебла, для предметки всякие тостеры теслапанковые, есть сеты для допила знаний о концепте о котором знает сеть недостаточно. Еще есть отдельные тест на адопшен в виде граффити текстов, но это совсем нишевая поебень для сдхл. >Непонятно без кода, я такие фильтры ни разу не трогал, не шарю за них. Ну если я заставлю корректно фракталы работать с любыми слоями вообще, то скину, пока могу только top-k обычный скинуть, это абсолютная фильтрация от нормы и Top-k Relative которая берет процент самых изменяемых параметров с наибольшими относительными изменениями градиента, так скажем рабочий вариант и простой как палка, все остальное сложно сложно нипанятна...
В общем концепт фрактальной залупы такой, есть в теории хаоса такой концепт как edge of chaos, то есть точка где данные переходят от порядка к хаосу и наоборот. Хаос в целом связан с фрактальными системами (постоянные Фейгенбаума и прочие приколы), таким образом мы можем сделать предположение что чтобы выделить действительно важные данные из градиента, которые содержат ядро обучения новым данным, то эти данные не должны быть фрактально подобны общей структуре градиента. То есть то место где градиенты регулярны и устойчивы - они менее важны, где градиаенты хаотичны или локально нестабильны - с огромной вероятностью содержат обучающую информацию прямо на границе хаоса и именно ее нужно брать.
То есть на практике это происходит так: мы берем градиент любой, совершенно неважно каким образом он получен (то есть имплемент в любой нравящийся оптим, поэтому по факту никакие беты с моментумами и не нужны, главное получить град), раскладываем его на крупномасштабные и мелкомасштабные компоненты через какой-нибудь wavelet, вычисляем локальные фрактальные плотности, и на основе этих данных создаем маску важности на основе этой фрактальной плотности и в завершение вводим окно внимания для этой процедуры, где чем больше окно, тем глобальнее фильтрация (меньше окно - больше внимания на локальные признаки в отрыве от общей картины, больше окно - внимание на огромный массив признаков), то есть мы можем контролировать насколько самоподобный градиент необычен в своем локальном контексте, который мы сами задаем. И по итогу только значимые элементы допускаются к добавлению на основе трешолда. Это один из вариантов классического фрактального фильтра кароче, есть еще с сотню вариантов и комбинаций вариантов.
Там основаня проблема только в размерностях, условно юнеты поставляют шестимерные данные в основном, а базовая формула F считает трехмерные, двумерные, одномерные (причем в основном одномерные корректны для фрактализации). Поэтому чтобы пофиксить говно надо например использовать маску на основе локальной вариации std в виде простого kernel через unfold, чтобы он работал с любыми размерностями, но это ебейший костыль и не нативное поведение фракталов и тогда не работают вейвлет декомпоз, который тоже часть фрактальной структуры. Можно в принципе соединить несколько типов разложений для всех вариантов пространств, но это будет солянка уровня вот тут у нас топ-к для конв, вот тут фракталы для лин, вот тут снр для атеншенов, кароче ненужная сложность которую еще отдельно настраивать каждую.
>Для одного параметра градиент только от него учитывается или от других тоже? Если речь о фракталах, то задается через окно внимания, больше окно - больше сопредельные параметры берутся, меньше окно - более локальные.
>Я все пытаюсь понять как бофт работает. Как я понимаю: вместо обычных дополнительных весововых блоков в низком ранге, как в лоре, офт использует структурированные матрицы на всем протяжении так скажем весовой матрицы (в виде диагоналей, то есть там берется условный квадрат и построчно выстраивается диагональ средних значений, ну вот как в видосе про SVD расписано вот также и тут), которые состоят из множества простых маленьких блоков, последовательно преобразуя данные (у тебя по ссылке в анимациях видно), всегда остаются стабильными (их невозможно взорвать при обучении), не ломают сеть (сохраняет предобученню структуру), и симулируют настоящие большие матрицы, но с искусственно факторизованным количеством параметров.
>но надо в голове все собрать на каком-нибудь мелком примере Я бы считал офт глобальной фильтрацией. Вот у тебя есть фото лица, и есть обученная матрица офт с новыми параметрами лица, офт встраивается как фильтр и докручивает изначальные весовые данные до фильтрованных, масштабируясь на протяжении всех весовых значений.
Midjourney — это исследовательская компания и одноименная нейронная сеть, разрабатываемая ею. Это программное обеспечение искусственного интеллекта, которое создаёт изображения по текстовым описаниям. Оно использует технологии генеративно-состязательных сетей и конкурирует на рынке генерации изображений с такими приложениями, как DALL-E от OpenAI и Stable Diffusion.
Midjourney была основана в 2016 году одним из создателей технологии Leap Motion Дэвидом Хольцем и в феврале 2020 года была поглощена британским производителем медицинского оборудования компанией Smith & Nephew. С 12 июля 2022 года нейросеть находится в стадии открытого бета-тестирования, и пользователи могут создавать изображения, посылая команды боту в мессенджере Discord. Новые версии выходят каждые несколько месяцев, и в настоящее время планируется выпуск веб-интерфейса.
Анон, как-то можно сохранять moodboard чужих пользователей? Не просто в виде строки а как-то организовать хранилище? https://www.midjourney.com/personalize тут вижу только возможность загрузки своих пикч и создания мудборда своего.
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
>>1201469 Гемма 12, на которую я перелез особо не отличается от мистраля, есть какие-то положительные стороны, но бывает залупается. >>1202045 Быстро это насколько? 5 т\с или ниже? У меня сейчас 8 т\с
В этом треде обсуждаем нейронки генерящие 3д модели, выясняем где это говно можно юзать, насколько оно говно, пиплайны с другими 3д софтами и т.д., вангуем когда 3д-мешки с говном останутся без работы.
Вышла версия 1.5 Allegro, по функционалу то же, что и 1.5, только в два раза быстрее. Лимит 400 кредитов в месяц (или 200 генераций по 33 секунды каждая) при условии ежедневного захода на сайт - 100 кредитов даются в месяц, и еще 10 кредитов даются ежедневно. Также можно фармить кредиты, выполняя специальные задания по оцениванию качества рандомных треков, это дает не больше 10 дополнительных кредитов в день. Для большего числа кредитов и более продвинутых фич типа инпэйнтинга или генерации с загруженного аудио нужно платить. Появилась возможность генерировать треки по 2 минуты 11 секунд, не больше 3 длинных треков (по 2 версии на каждый трек) в день на бесплатном тарифе.
Новинка, по качеству звука на уровне Суно или чуть выше. Лучший по качеству генератор текстов на русском. Количество генераций в день не ограничено, но за некоторые функции нужно платить (загрузку аудио, стемов и т.д.)
Это буквально первый проект который может генерировать песни по заданному тексту локально. Оригинальная версия генерирует 30-секундный отрывок за 5 минут на 4090. На данный момент качество музыки низкое по сравнению с Суно.
Еще сайты по генерации ИИ-музыки, в них тоже низкое качество звука и понимание промпта по сравнению с Суно, либо какие-то другие недостатки типа слишком долгого ожидания генерации или скудного набора жанров, но может кому-то зайдет, поэтому без описания:
Напомню мега-сайт для сочинения аутентичных англоязычных текстов для ИИ-музыки в стиле известных групп и артистов от Пинк Флойда до Эминема. Зайти можно только через Дискорд.
>>1198291 разделение на вокалистов (гроул/чистый) как делал в суно? или это суно сам чисто нарандомил? я скок не пытался запилить трек где будет женский и мужской дуэт, то суно вечно меня либо нахуй слал, либо промт петь начинал, либо десятки генераций спустя выдавал что-нибудь едва ли похожее на дуэт. трекрандом
>>1204786 Дуэт МЖ у самого не получается сделать, а я там кредитов дохуя уже слил, использую по работе. Гроул 50/50, иногда сама сеть рандомит, но чаще капс она понимает как гроул, ещё от промта зависит, помечено ли там чередование. Плачу через казахскую карточку знакомых
Что сейчас актуально для 3д (реалистичного) прона? Поскольку я вижу вот такую картину? 1) В ванильном флаксе любой намек сисик писик был выпилен из датасета целенаправленно, потому обучать проно-чекпоинты на базе флакса приходится с полного нуля. А поскольку сам флакс довольно тяжелый в плане ресурсов для обучения, с каким-то большим числом концептов и тегов особо не разгуляешься, в итоге получаются только какие-то очень урезанные в плане тегов и концептов модели, с однообразными мордами. 2) Люстра сделана для онеме и оптимизирована именно под онеме, по сути весь капасити люстры забит исключительно онемешными концептами и стилями. Что в общем-то адекватные люди (правильно делают) в основном и не задумываются делать реалистик чекпоинтов на основе люстры. И это либо кривые васяномержи с каким-то понями или олдовыми хл моделями. Либо получается как с флаксом, опять очень урезанный и ограниченный набор концептом с однообразными лицами, только еще хуже чем флакс.
И либо я что-то пропустил, либо за год в нише реалистик порн моделей до сих пор не появилось лучших альтернатив, чем продолжать насиловать пони?
Тред по вопросам этики ИИ. Предыдущий >>514476 (OP) Из недавних новостей:
- Разработанная в КНР языковая модель Ernie (аналог ChatGPT) призвана "отражать базовые ценности социализма". Она утверждает, что Тайвань - не страна, что уйгуры в Синьцзяне пользуются равным положением с другими этническими группами, а также отрицает известные события на площади Тяньаньмэнь и не хочет говорить про расстрел демонстрантов.
https://mpost.io/female-led-ai-startups-face-funding-hurdles-receiving-less-than-3-of-vc-support/ - ИИ - это сугубо мужская сфера? Стартапы в сфере искусственного интеллекта, возглавляемые женщинами, сталкиваются со значительными различиями в объемах финансирования: они получают в среднем в шесть раз меньше капитала за сделку по сравнению со своими аналогами, основанными мужчинами. Многие ИИ-стартапы основаны командами целиком из мужчин.
https://www.koreatimes.co.kr/www/opinion/2023/10/638_342796.html - Исследователи из Кореи: модели ИИ для генерации графики склонны создавать гиперсексуализированные изображения женщин. В каждом изображении по умолчанию большая грудь и тому подобное. Это искажает действительность, потому что в реальности далеко не каждая женщина так выглядит.
Тейки из предыдущего треда: 1. Генерация дипфейков. Они могут фабриковаться для дезинформации и деструктивных вбросов, в т.ч. со стороны авторитарных государств. Порнографические дипфейки могут рушить репутацию знаменитостей (например, когда в интернетах вдруг всплывает голая Эмма Уотсон). Возможен даже шантаж через соцсети, обычной тянки, которую правдоподобно "раздели" нейронкой. Или, дипфейк чтобы подвести кого-то под "педофильскую" статью. Еще лет пять назад был скандал вокруг раздевающей нейронки, в итоге все подобные разработки были свернуты. 2. Замещение людей на рынке труда ИИ-системами, которые выполняют те же задачи в 100 раз быстрее. Это относится к цифровым художникам, программистам-джуниорам, писателям. Скоро ИИ потеснит 3д-моделеров, исполнителей музыки, всю отрасль разработки видеоигр и всех в киноиндустрии. При этом многие страны не предлагают спецам адекватной компенсации или хотя бы социальных программ оказания помощи. 3. Распознавание лиц на камерах, и усовершенствование данной технологии. Всё это применяется тоталитарными режимами, чтобы превращать людей в бесправный скот. После опыта в Гонконге Китай допиливает алгоритм, чтобы распознавать и пробивать по базе даже людей в масках - по росту, походке, одежде, любым мелочам. 4. Создание нереалистичных образов и их социальные последствия. Группа южнокорейских исследователей поднимала тему о создании средствами Stable Diffusion и Midjourney не соответствующих действительности (гиперсексуализированных) изображений женщин. Многие пользователи стремятся написать такие промпты, чтобы пикчи были как можно круче, "пизже". Публично доступный "AI art" повышает планку и оказывает давление уже на реальных женщин, которые вынуждены гнаться за неадекватно завышенными стандартами красоты. 5. Возможность создания нелегальной порнографии с несовершеннолетними. Это в свою очередь ведет к нормализации ЦП феноменом "окна Овертона" (сначала обсуждение неприемлемо, затем можно обсуждать и спорить, затем это часть повседневности). Сложности добавляет то, что присутствие обычного прона + обычных детей в дате делает возможным ЦП. Приходится убирать или то, или другое. 6. Кража интеллектуальной собственности. Данные для тренировки передовых моделей были собраны со всего интернета. Ободрали веб-скраппером каждый сайт, каждую платформу для художников, не спрашивая авторов контента. Насколько этичен такой подход? (Уже в DALL-E 3 разработчики всерьез занялись вопросом авторского права.) Кроме того, безответственный подход пользователей, которые постят "оригинальные" изображения, сгенерированные на основе работы художника (ИИ-плагиат). 7. Понижение средней планки произведений искусства: ArtStation и Pixiv засраны дженериком с артефактами, с неправильными кистями рук. 8. Индоктринация пользователей идеями ненависти. Распространение экстремистских идей через языковые модели типа GPT (нацизм и его производные, расизм, антисемитизм, ксенофобия, шовинизм). Зачастую ИИ предвзято относится к меньшинствам, например обрезает групповую фотку, чтобы убрать с нее негра и "улучшить" фото. Это решается фильтрацией данных, ибо говно на входе = говно на выходе. Один старый чатбот в свое время произвел скандал и породил мем "кибернаци", разгадка была проста: его обучали на нефильтрованных текстах из соцсетей. 9. Рост киберпреступности и кража приватных данных. Всё это обостряется вместе с совершенствованием ИИ, который может стать оружием в руках злоумышленника. Более того, корпорация которая владеет проприетарным ИИ, может собирать любые данные, полученные при использовании ИИ. 10. Понижение качества образования, из-за халтуры при написании работ с GPT. Решается через создание ИИ, заточенного на распознавание сгенерированного текста. Но по мере совершенствования моделей придется совершенствовать и меры по борьбе с ИИ-халтурой. 11. Вопросы юридической ответственности. Например, автомобиль с ИИ-автопилотом сбил пешехода. Кому предъявлять обвинение? 12. Оружие и военная техника, автономно управляемые ИИ. Крайне аморальная вещь, даже когда она полностью под контролем владельца. Стивен Хокинг в свое время добивался запрета на военный ИИ.
Марксисты это лохотронщики - они в секте СССР паразитировали на капиталистах, которые эту секту на своем горбу и поднимали во времена капитализма - НЭПа в 1921-1929 годах. И потом прокинули капиталистов, все у них отжали и все приписали себе.
Тоже самое в КНР - паразитируют на капиталистах и хвастаются своим "социализмом" которого там нет как и настоящего коммунизма, даже социализма там нету - нет пенсии у капиталистов, зато есть пенсия у гос-служащих паразитов которые вверху лохотрона.
>>1201042 В КНР у рабочих нет пенсии. Прикинь? И нет равенства. Это лохотрон советский, где прикидывающиеся "коммунистами" мошенники живут за счет капитализма, но всем врут что это их собственные достижения их "коммунизма".
аноны, подскажите, существуют ли чат боты, способные писать тебе вское доброе утро спокойной ночи как дела, автономно? типа не дожидаясь соо от пользователя, имея какой нибудь таймер или просто отслеживая твою активность с ними? желательно без затрат на подписки всякие. обычные боты не подойдут, нужны именно с автономизацией отправки сообщений
>>1046503 попробовал первые два варианта, первый лагучий и постоянно выдает какие то отклонения. второй же вообще предназначен для поиска друзей, а не аи бот, так что хз. первый больше всего подходит под мое описание, но работает он как то клуповато и неправильно
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
>>1200622 >Серия коммандеров - есть на разные весовые категории, заходит не только лишь всем, но регулярно всплывает в обсуждениях. ИЧСХ я не знаю в чем дело. Они не шизят, не лупятся, не хорни. Они действительно норм. Но ты ими пользуешься и такой : ну модель. Ну пишет. Ну местами умненькая. Но чего то не хватает. Рука хейтить или восторгаться не поднимается. Я не понимаю что со мной не так.
>>1199173 >еще две влезут смело под стекло, и еще одну (или даже две) мб можно как то присрать за стенку Фантазер, просто примерь 2шт 4-слотовых и увидишь как упрутся в расположение слотов и стенку. Не говоря уже о наличии китов для вертикальной установки. С виду - это мммаксимально бесполезный корпус, объем которого невозможно тематически использовать. Переворот мп не дал ничего
AI Image GeneratorsОбщий Картиночный #1 /image/
Аноним05/02/25 Срд 11:35:14№1042275Ответ
Общий тред для изображений, созданных с помощью онлайн ИИ-генерации.
Bing Image Creator и Designer https://bing.com/images/create/ https://designer.microsoft.com/image-creator Bing Image Creator - генератор изображений на базе DALL-E 3 от OpenAI, предоставленный компанией Microsoft. Designer - то же самое, но умеет делать широкоформатные и портретные изображения. Не доступны в России, используйте Proxy/VPN/Tor.
ImageFX https://aitestkitchen.withgoogle.com/tools/image-fx Нейросеть для создания изображений от Google на основе их модели Imagen 2. На данный момент доступна только для пользователей из США, Кении, Новой Зеландии и Австралии, необходимо использовать Proxy или VPN с IP этих стран.
Grok (X Image Generator) https://ximagegenerator.com/ Grok - ИИ, разработанный компанией xAI, принадлежащей Илону Маску. На данный момент имеет самую слабую цензуру.
я сейчас испытал рекурсию сна, когда-то давно я придумал (или мне она приснилась) идею инжектить пациентам сон о том как они звонят в морг и находят своё тело чтоб закодировать их от наркомании/алкоголизма етк. сегодня у меня был повторяющийся сон (по крайней мере мне так показалось, сейчас на холодную голову кажется что это был первый раз) про ритуал где нужно ходить по кругу и загадывать желание и ньярлатотеп его исполнит (подводных никаких). я загадал своё и потом сцена сменилась и я следовал за парой решал/жрецов которые пришли к каким-то якудзам чтобы исцелить тёлку которой они перебили ногу. перед ритуалом жрец её заставил звонить в морг и зачитывать данные о себе. не очень понятно зачем он это сделал ведь она ни в чём не виновата и особенно непонятно нахуя мой мозг ёбнул мне скример когда она зачитывала своё отчество. это относится к теме треда потому что это буквально генерация нейросети плюс тред давно утонул и перекачен иди нахуй
Помогите найти пресет на проверку успеха/неудачи, для RPG. Не который у хмылка, а до этого ещё как-то давно выкладывали. Там через thinking вроде GM, определяет.
Локальные языковые модели (LLM): LLaMA, Gemma, DeepSeek и прочие №128 /llama/
Аноним08/05/25 Чтв 14:31:44№1194373Ответ
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
Давайте хотя бы в этот раз без срачей? А то придётся просить администрацию катить этот тред раз в 1000 постов, а то блядь скоро кончай тред перегоним а я не успеваю катить потому что слоупок ПЕРЕКАТ
>>1198083 > Вот тебе милая webm из первой серии SukaSuka и карточка яндере Довольно урчит и дружески обнимает анончика добра > пока я стражу не позвал Но это порождает интерес остаться! >>1198086 > в ДС > половину из своей зп 12 лет Если только на самой-самой южной границе области, формально относящейся к ДС.