1. Доска предназначена для любых обсуждений нейросетей, их перспектив и результатов.
2. AICG тред перекатывается после достижения предела в 1500 постов. Любители чрезмерно самовыделиться идут в /asylum/.
3. Срачи рукотворное vs. ИИ не приветствуются. Особо впечатлительные художники и им сочувствующие катятся в собственный раздел => /pa/. Генераций и срачей в контексте всем известных политических событий это тоже касается, для них есть соответствующие разделы.
4. Это доска преимущественно технического направления. Для откровенного NSFW-контента выделена отдельная доска - /nf/, эротика остаётся в /ai/. Так, порнография и голые мужики теперь отправляются в /nf/. Фурри - в /fur/. Гуро и копро - в /ho/.
Анончики, помогите пожлауйста. Есть один курсач, в котором часть текста сгенерирована chatGPT (который бесплатный из аппстора). Антиплагиат помечает его как сгенерированный. Прокатит ли, если перефразировать текст в кобальде через какую-то модель, или антиплагиат не только жпт распознаёт?
>>737041 >Но качество даже лучше, чем в блюрей версиях Ты эту артефактную мыловарню называешь качеством? >Я готов хоть несколько дней ждать Тут не ждать, тут платить надо, какой-нибудь топаз гигапиксель и/или SVP.
Основой я бы точно взял танец Меган. Тема с роботами/андроидами навсегда теперь с нами и актуальность будет только нарастать. Можно подумать над тем чтобы скрестить с Орфаном.
>>725673 >Основой я бы точно взял танец Меган. Тема с роботами/андроидами навсегда теперь с нами и актуальность будет только нарастать. Там даже танца нету, что ты несешь, клоун.
Stable Diffusion тред X+85 ====================================== Предыдущий тред >>730827 (OP)https://arhivac.top/?tags=13840 ------------------------------------------ схожие тематические треды - NAI-тред (аниме) >>733295 (OP) - технотред >>639060 (OP) ======================== Stable Diffusion (SD) - открытая нейросеть генеративного искусства для создания картинок из текста/исходных картинок, обучения на своих изображениях. Полный функционал в локальной установке (см. ниже)
Локальные языковые модели (LLM): LLaMA, Mistral, Command-R и прочие №59 /llama/
Аноним11/05/24 Суб 16:48:16№735155Ответ
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны! Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст, и бугуртим с кривейшего тормозного говна. Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
LLaMA 3 вышла! Увы, только в размерах 8B и 70B. Промты уже вшиты в новую таверну, так же последние версии кобольда и оригинальной ллама.цпп уже пофикшены. Есть инфа о проблемах с реализацией кода ллама.цпп на видеокартах, но пока без конкретики.
Базовой единицей обработки любой языковой модели является токен. Токен это минимальная единица, на которые разбивается текст перед подачей его в модель, обычно это слово (если популярное), часть слова, в худшем случае это буква (а то и вовсе байт). Из последовательности токенов строится контекст модели. Контекст это всё, что подаётся на вход, плюс резервирование для выхода. Типичным максимальным размером контекста сейчас являются 2к (2 тысячи) и 4к токенов, но есть и исключения. В этот объём нужно уместить описание персонажа, мира, истории чата. Для расширения контекста сейчас применяется метод NTK-Aware Scaled RoPE. Родной размер контекста для Llama 1 составляет 2к токенов, для Llama 2 это 4к, Llama 3 обладает базовым контекстом в 8к, но при помощи RoPE этот контекст увеличивается в 2-4-8 раз без существенной потери качества.
Базовым языком для языковых моделей является английский. Он в приоритете для общения, на нём проводятся все тесты и оценки качества. Большинство моделей хорошо понимают русский на входе т.к. в их датасетах присутствуют разные языки, в том числе и русский. Но их ответы на других языках будут низкого качества и могут содержать ошибки из-за несбалансированности датасета. Существуют мультиязычные модели частично или полностью лишенные этого недостатка, из легковесных это openchat-3.5-0106, который может давать качественные ответы на русском и рекомендуется для этого. Из тяжёлых это Command-R. Файнтюны семейства "Сайга" не рекомендуются в виду их низкого качества и ошибок при обучении.
Основным представителем локальных моделей является LLaMA. LLaMA это генеративные текстовые модели размерами от 7B до 70B, притом младшие версии моделей превосходят во многих тестах GTP3 (по утверждению самого фейсбука), в которой 175B параметров. Сейчас на нее существует множество файнтюнов, например Vicuna/Stable Beluga/Airoboros/WizardLM/Chronos/(любые другие) как под выполнение инструкций в стиле ChatGPT, так и под РП/сторитейл. Для получения хорошего результата нужно использовать подходящий формат промта, иначе на выходе будут мусорные теги. Некоторые модели могут быть излишне соевыми, включая Chat версии оригинальной Llama 2.
Про остальные семейства моделей читайте в вики.
Основные форматы хранения весов это GGML и GPTQ, остальные нейрокуну не нужны. Оптимальным по соотношению размер/качество является 5 бит, по размеру брать максимальную, что помещается в память (видео или оперативную), для быстрого прикидывания расхода можно взять размер модели и прибавить по гигабайту за каждые 1к контекста, то есть для 7B модели GGML весом в 4.7ГБ и контекста в 2к нужно ~7ГБ оперативной. В общем и целом для 7B хватает видеокарт с 8ГБ, для 13B нужно минимум 12ГБ, для 30B потребуется 24ГБ, а с 65-70B не справится ни одна бытовая карта в одиночку, нужно 2 по 3090/4090. Даже если использовать сборки для процессоров, то всё равно лучше попробовать задействовать видеокарту, хотя бы для обработки промта (Use CuBLAS или ClBLAS в настройках пресетов кобольда), а если осталась свободная VRAM, то можно выгрузить несколько слоёв нейронной сети на видеокарту. Число слоёв для выгрузки нужно подбирать индивидуально, в зависимости от объёма свободной памяти. Смотри не переборщи, Анон! Если выгрузить слишком много, то начиная с 535 версии драйвера NVidia это может серьёзно замедлить работу, если не выключить CUDA System Fallback в настройках панели NVidia. Лучше оставить запас.
Гайд для ретардов для запуска LLaMA без излишней ебли под Windows. Грузит всё в процессор, поэтому ёба карта не нужна, запаситесь оперативкой и подкачкой: 1. Скачиваем koboldcpp.exe https://github.com/LostRuins/koboldcpp/releases/ последней версии. 2. Скачиваем модель в gguf формате. Например вот эту: https://huggingface.co/Sao10K/Fimbulvetr-11B-v2-GGUF/blob/main/Fimbulvetr-11B-v2.q4_K_S.gguf Можно просто вбить в huggingace в поиске "gguf" и скачать любую, охуеть, да? Главное, скачай файл с расширением .gguf, а не какой-нибудь .pt 3. Запускаем koboldcpp.exe и выбираем скачанную модель. 4. Заходим в браузере на http://localhost:5001/ 5. Все, общаемся с ИИ, читаем охуительные истории или отправляемся в Adventure.
Да, просто запускаем, выбираем файл и открываем адрес в браузере, даже ваша бабка разберется!
Для удобства можно использовать интерфейс TavernAI 1. Ставим по инструкции, пока не запустится: https://github.com/Cohee1207/SillyTavern 2. Запускаем всё добро 3. Ставим в настройках KoboldAI везде, и адрес сервера http://127.0.0.1:5001 4. Активируем Instruct Mode и выставляем в настройках пресетов Alpaca 5. Радуемся
Генерируя в коллабе на чужом блокноте будьте готовы к тому, что его автору могут отправляться все ваши промты, генерации, данные google-аккаунта, IP-адрес и фингерпринт браузера.
ComfyUI https://github.com/comfyanonymous/ComfyUI Интерфейс, заточенный на построение собственных workflow посредством организации конвееров через редактирование нод с различными действиями и указанием связей между ними.
♫ Локальные модели ♫ Ждём и надеемся... В прошлом треде какой-то анон написал про AudioCraft и MusicGen, можете прочекать, что это
🎙️ Открытый бета-тест Udio В открытую бету вышла нейросеть Udio, которая, по словам множества пользователей, превосходит Suno V3 в генерации музыкальных композиций. Пока идёт бета-тест, доступно 1200 генераций в месяц с одного аккаунта.
Udio и Suno поддерживают множество языков для вокала (включая русский) и большое разнообразие жанров.
>>738445 на одну композицию с Высоцким ушло больше 50 генераций. Это поиск пододящего стиля настроение игра с промтами, потом уже борьба с бубнежом и нейрошумом. >>738951 дожру бетатестерский аванс и буду искать другие нейронки.
текст для генерации [Verse 1] Свинное тело моё, положили В деревянный лаковый гроб. Хороводы вокруг меня вы водили Ёлку ставили мне на лоб, Праздник, веселье, смерти твердили "Забирай, Тараса - это твой холоп" [Chorus] (Блинокачка-а-а-а!) Родные меня в гроб положили. (Блинокачка-а-а-а!), Я стану мясным кубом! (Блинокачка-а-а-а!), Весело мы послужили! [Verse 2] Моё сознание ушло в другие миры. Моя память останется на двачах. а бренное тело сожмут в мясной куб. На площади, забытым в снегах. [Chorus] (Блинокачка-а-а-а!) Родные меня в гроб положили. (Блинокачка-а-а-а!), Я стану мясным кубом! (Блинокачка-а-а-а!), Весело мы послужили! [Verse 3] Моё телов нашли в Азов Стали Гдя я жрал собачий корм. Сожмут в мясной куб. И отправят домой. А мать в твиттере утешали: (Гордись своим кубом) [Chorus] (Блинокачка-а-а-а!) Родные меня в гроб положили. (Блинокачка-а-а-а!), Я стану мясным кубом! (Блинокачка-а-а-а!), Весело мы послужили!
Обсуждение просмотров, подписок и заработка по AI артам №3 /subs/
Аноним05/09/23 Втр 13:38:08№477091Ответ
Меряемся числом подписчиков, выясняем оптимальную стратегию по выкладыванию артов в паблик, зарабатываем на платных галереях и комишенах, пытаемся вывести деньги из-за бугра если вы являетесь жителем этой страны, бугуртим от бана нейронок на артплощадках.
Обсуждаем всё, что относится к публикации своих артов и способам их монетизации.
Анончики, что за прикол после обновы на DA — просмотры вообще не идут, буквально 1 просмотр, видимо, от меня же. Они там алгоритмы подкрутили и AI-арты подрезало в выдаче?
Общаемся с самым продвинутым ИИ самой продвинутой текстовой моделью из доступных. Горим с отсутствия бесплатного доступа к свежевыпущенному новому поколению GPT-4.
Гайд по регистрации из России: 1. Установи VPN, например расширение FreeVPN под свой любимый браузер и включи его. 2. Возьми нормальную почту. Адреса со многих сервисов временной почты блокируются. Отбитые могут использовать почту в RU зоне, она прекрасно работает. 3. Зайди на https://chat.openai.com/chat и начни регистрацию. Ссылку активации с почты запускай только со включенным VPN. 4. Когда попросят указать номер мобильного, пиздуй на sms-activate.org или 5sim.biz (дешевле) и в строку выбора услуг вбей openai. Для разового получения смс для регистрации тебе хватит индийского или польского номера за 7 - 10 рублей (проверено). Пользоваться Индонезией и странами под санкциями не рекомендуется. 5. Начинай пользоваться ChatGPT. 6. ??? 7. PROFIT!
VPN не отключаем, все заходы осуществляем с ним. Соответствие страны VPN, почты и номера не обязательно, но желательно для тех, кому доступ критически нужен, например для работы.
Для ленивых есть боты в телеге, 3 сорта: 0. Боты без истории сообщений. Каждое сообщение отправляется изолировано, диалог с ИИ невозможен, проёбывается 95% возможностей ИИ 1. Общая история на всех пользователей, говно даже хуже, чем выше 2. Приватная история на каждого пользователя, может реагировать на команды по изменению поведения и прочее. Говно, ибо платно, а бесплатный лимит или маленький, или его нет совсем.
Перед тем, как идти в тред с горящей жопой при ошибках сервиса, сходи на сайт со статусом, может, это общий баг https://status.openai.com/
Чат помнит историю в пределах контекста, это 4к токенов для GPT 3.5 (до 16к в апи) и 8к для новой GPT-4 (128к в версии GPT-4-Turbo). Посчитать свои токены можно здесь: https://platform.openai.com/tokenizer
Что может нейросеть: - писать тексты, выглядящие правдоподобно - решать некоторые простые задачки - писать код, который уже был написан
Что не может нейросеть: - писать тексты, содержащие только истину - решать сложные задачи - писать сложный код - захватывать мир - заходить на вебсайты (неактуально для 4 с плагинами, платим деньги и радуемся)
С последними обновлениями начинает всё чаще сопротивляться написанию NSFW историй и прочего запрещённого контента. Кумеры со всего мира в печали.
На сегодняшний день (дата создания треда) есть бесплатная версия на основе GPT-3.5 и платная версия (20$/мес) с использованием следующего поколения — GPT-4. Платная версия ограничена 50 запросами в 3 часа, причем планируется увеличение ограничений. Доступ к плагинам открыли в бета-версии для платных пользователей. Оплатить подписку из России нельзя, ищите посредников на сайтах для оплаты онлайн игр и договаривайтесь там сами. Отважные могут попробовать разводил с авито, объявлений вагон, но аноны не проверяли.
Для некоторых пользователей открыли альфа версию с бесплатной GPT-4 c картинками и веб-поиском, но счастливчиков в треде примерно 1 штука, остальные сидят на 3,5 и ноют.
>>739069 >>739079 подождем, а пока что в пойдем православный сбер гигачат
Главный прорыв десятилетия!
Аноним05/05/24 Вск 00:00:16№726541Ответ
Пару дней назад учёные из MIT представили революционную архитектуру глубокого обучения KAN, которая произвела фурор среди исследователей, став настоящей сенсацией. Говорят, что возможно это самый грандиозный прорыв в ИИ за последние 50 лет. Многие его окрестили, как Deep Learning 2.0
В основе всех архитектур, к которым мы привыкли, лежит многослойный перцептрон (MLP). У него есть веса и нейроны, в которых расположены функции активации. Этой парадигмой ученые пользуются с 1957 года, когда ее предложил Фрэнк Розенблатт.
А что, если мы переместим функции активации на веса и сделаем из обучаемыми? Звучит как бред, но yes, we KAN.
KAN (Kolmogorov-Arnold Networks) - новая парадигма, в которой исследователи реализовали перемещение активаций на «ребра» сети. Кажется, что решение взято из ниоткуда, но на самом деле тут зашита глубокая связь с математикой: в частности, с теоремами универсальной аппроксимации и аппроксимации Колмогорова-Арнольда.
KAN работает намного точнее, чем MLP гораздо большего размера, и к тому же лучше интерпретируется. Авторы KAN доказали, что ему требуется во много раз меньше нейронов, чтобы достичь точности MLP. Также KAN гораздо лучше генерализует данные и лучше справляется с аппроксимацией сложных математических функций (мы увидели это на примерах), у него, можно сказать, "технический склад ума". В статье исследователи также показали, как KAN помогает решать дифференциальные уравнения и (пере)открывает законы физики и математики.
Единственный минус: из-за обучаемых активаций тренится все это дело в разы дольше, чем MLP. Но это не точно, так как исследователи пока даже не пытались провести оптимизацию скорости обучения.
Возможно сегодня мы наблюдаем рождение Deep Learning 2.0. Ведь такой подход меняет вообще все, от LSTM до трансформеров. Эпоха AGI теперь становится куда ближе.
>>737089 >Остается лишь только свои нейронки писать Так все адекваты локалками пользуются. Как ты локалки реально отбирать будешь, кроме как запретом продажи населению самим Хуангом или отбиванием техники у населения? Сейчас многие вещи делаются локально, а уж с данной технологией это станет еще проще. Вот всякие попенаи и всех пугают, говорят, что нужны ограничения, лоббируют запреты открытых нейронок. Дабы только крупные корпорации могли осуществлять деятельность в развитии ИИ
>>737788 >а уж с данной технологией это станет еще проще Сложнее. КАН вообще не обучаемый на потребительском железе при размерах больше пары слоёв на десяток нейронов.
>>726541 (OP) Почему-то весь машин лернинг кажется мне какой-то детской ерундой. Возможно потому что наука еще слишком новая и ученые пока что не так глубоко погружены в нее, а все нужно постигать мелкими шажками, но вам не кажется что это совсем пиздец? В плане того, что прорывом считается буквально очевидная вещь, сделать какие-то константы переменными и обучаемыми, ну охуеть теперь. Предыдущий прорыв — селф аттеншн у трансформера, это по сути, грубо говоря, изменение влияния связей между нейронами, по факту реалтайм изменение топологии сети. Уважаемые ученые, специально для вас делаю вывод: Если что-то в архитектуре нейросети является константным, сделайте это обучаемым. Где моя нобелевка?
Исследования ИИ тред #2 /research/
Аноним08/10/23 Вск 02:45:17№511426Ответ
Обсуждаем развитие искусственного интеллекта с более технической стороны, чем обычно.
Я ничего не понимаю, что делать? Без петросянства: смотри программу стэнфорда CS229, CS231n https://see.stanford.edu/Course/CS229 (классика) и http://cs231n.stanford.edu (введение в нейроночки) и изучай, если не понятно - смотри курсы prerequisites и изучай их. Как именно ты изучишь конкретные пункты, типа линейной алгебры - дело твое, есть книги, курсы, видосики, ссылки смотри ниже.
Почему python? Исторически сложилось. Поэтому давай, иди и перечитывай Dive into Python.
Можно не python? Никого не волнует, где именно ты натренируешь свою гениальную модель. Но при серьезной работе придется изучать то, что выкладывают другие, а это будет, скорее всего, python, если работа последних лет.
Стоит отметить, что спортивный deep learning отличается от работы примерно так же, как олимпиадное программирование от настоящего. За полпроцента точности в бизнесе борятся редко, а в случае проблем нанимают больше макак для разметки датасетов. На кагле ты будешь вилкой чистить свой датасет, чтобы на 0,1% обогнать конкурента.
Количество статей зашкваливающее, поэтому все читают только свою узкую тему и хайповые статьи, упоминаемые в блогах, твиттере, ютубе и телеграме, топы NIPS и прочий хайп. Есть блоги, где кратко пересказывают статьи, даже на русском
Где ещё можно поговорить про анализ данных? http://ods.ai
Нужно ли покупать видеокарту/дорогой пека? Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. Google Colab дает бесплатно аналог GPU среднего ценового уровня на несколько часов с возможностью продления, при чем этот "средний уровень" постоянно растет. Некоторым достается даже V100. Иначе выгоднее вложиться в GPU https://timdettmers.com/2019/04/03/which-gpu-for-deep-learning заодно в майнкрафт на топовых настройках погоняешь.
Когда уже изобретут AI и он нас всех поработит? На текущем железе — никогда, тред не об этом
Кто-нибудь использовал машоб для трейдинга? Огромное количество ордеров как в крипте так и на фонде выставляются ботами: оценщиками-игральщиками, перекупщиками, срезальщиками, арбитражниками. Часть из них оснащена тем или иным ML. Даже на швабре есть пара статей об угадывании цены. Тащем-то пруф оф ворк для фонды показывали ещё 15 лет назад. Так-что бери Tensorflow + Reinforcement Learning и иди делать очередного бота: не забудь про стоп-лоссы и прочий риск-менеджмент, братишка
Список дедовских книг для серьёзных людей Trevor Hastie et al. "The Elements of Statistical Learning" Vladimir N. Vapnik "The Nature of Statistical Learning Theory" Christopher M. Bishop "Pattern Recognition and Machine Learning" Взять можно тут: https://www.libgen.is
Напоминание ньюфагам: немодифицированные персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.
Disclaimer: Шапка сгенерирована нейросетью и нуждается в чистке.
это кусочек fastai, но один поехавший пишет обертку для временных рядов - tsai .
Что мне делать, если у меня хуево генерализируется нейросеть? Исходных примеров временных рядов - 4, но я из них нарезаю отрезки по 4000 точек и accuracy получается как-бы высокая - 0.80 но при попытке классифицировать пятый пример все идет по пизде - 0.50
Традиционным способом добавить обучающего "знания" в нейросеть является Transfer Learning.
Допустим, у меня частотные сигналы с 4, 6 или 12 каналов. Я знаю, что популярен такой плайплан: запихивают один канал в виде картинки и дальше делают классификацию с помощью fine tuning современной нейронки для картинок. Можно собрать какую-то нейронку учетверенного размера? Наверняка, это расточительно, но ради точности чем не пожертвуешь
но что мне делать, если каналов не один и не 3, как на входах у таких нейронов ?
Всем сап! Недавно открыл небольшой бизнес и создал сайт, сейчас стоит вопрос по его раскрутке, знакомый скинул пикрилейтед. Говорит, якобы его другу заказал у этого чела, нагнал трафик с помощью гпт каким-то образом и завалило его лидами. Собственно вопрос, каким образом можно с помощью гпт генерировать трафик или настраивать качественное сео для сайта? Заранее благодарю за помощь
AI Dynamic Storytelling Thread Это тред про генераторы историй на базе ИИ. Динамические рассказчик /storytelling/
Аноним26/12/22 Пнд 12:29:46№7808Ответ
AI Dynamic Storytelling Thread
Это тред про генераторы историй на базе ИИ. Динамические рассказчики с искусственным интеллектом (AI Dynamic Storytellers)- это игры, которые используют искусственный интеллект для генерации текста и изображений для создания безграничной, открытой, интерактивной художественной литературы. Они позволяют быстро и просто получить тонны разных историй, заботливо сгенерированных ИИ, который учитывает ваши пожелания и идеи, по сути это интерактивные истории и текстовые РПГ. Крайне желательно знать английский язык или уметь пользоваться переводчиками
Самые популярные из генераторов историй на данный момент:
1) Kobold AI. Бесплатный проект, есть много модулей, как с цензурой, так и без, можно запускать из коллаба или локально у себя на пекарне требуется минимум 8gb видеопамяти на видеокарте, активное сообщество, которое допиливает проект. Из условных минусов - нужно читать гайды по настройке, понимать что куда крутить, а что не трогать. Знание английского языка сильно пригодится, потому что большинство гайдов и пояснений на нём, как и остальное. https://koboldai.org - клиент для запуска на пекарне https://koboldai.org/colab - гугл коллаб для запуска с одной кнопки https://aids.miraheze.org/wiki/KoboldAI - вики на английском https://rentry.org/itsnotthathard - гайд от англоанона, где всё подробно расписано https://henk.tech/softtuner - Модули https://github.com/TavernAI/TavernAI - версия с новым графическим интерфейсом в стиле чат-бота и более простым управлением. https://rentry.org/cdztg - краткий гайд для тех, кто не владеет английским
2) Novel AI. Платный генератор историй + картинок к ним. На данный момент оплата с территории снг вызывает проблемы. Есть бесплатный триал, но как вы наверное и сами поняли, он имеет серьёзные ограничения, чтобы заставить вас раскошелиться. Имеются разные Генерация картинок на сайте, кстати, тоже платная. но модель была слита в сеть и соседних тредах про генерацию картинок вы можете сделать это бесплатно, лол https://novelai.net - сайт проекта. https://aids.miraheze.org/wiki/Category:NovelAI - небольшая вики от англоанона https://rentry.org/skucs - краткий гайд на русском https://grotar00.itch.io/nai-card-editor - NAI Card Editor (Простой визуальный инструмент для создания карточек в формате PNG для иллюстраций квашим Лорбукам NAI)
3) AI Dungeon AI Dungeon — однопользовательская и многопользовательская текстовая приключенческая игра, использующая искусственный интеллект для создания игрового контента. В теории она как бы бесплатная, но на практике вы встречаете серьёзные ограничения на бесплатную версию, которая по сравнению с самой дорогой подпиской выглядит как котёнок в сравнении с тигром. Генерация картинок тоже есть, как и в NAI, но отгорожена премиум-подпиской, оплата которой из снг тоже является проблемой. Цензура присутствует, так что не рассчитывайте на многое, там она будет следовать за вами постоянно. https://aidungeon.io - сайт проекта https://ru.wikipedia.org/wiki/AI_Dungeon - вики по AID https://rentry.org/remember-what-they-took-from-you - англоаноны поясняют за проблемы проекта
Делимся своими рассказами, пытаемся получить интересное, обсуждаем новости по теме. Приветствуются советы от анонов, русскоязычные гайды и скрины самых удачных генераций.
>>737265 забыл упомянуть, это для 4бит квант. моделей
Оплата Claude 3 Opus
Аноним13/05/24 Пнд 18:37:36№737612Ответ
Суп, анончики. Может, кто знает как оплатить доступ к Claude 3 Opus (на официальном сайте Anthropic). Раньше прокатывал Pyypl, теперь же даже все сервисы оплаты картами отказываются оплачивать Claude 3. Говорят, сайт не принимает их карты.
Генерация за бабосы через OpenAI: https://labs.openai.com Оплата картой, жители этой страны без зарубежной карты в пролёте.
Как вкатиться: Через впн заходишь и регаешь аккаунт на Bing. Если просит телефон, то перезагружаешь страницу до победного/меняешь впн.
Как получить бусты: Если заканчиваются ежедневные бусты, то либо чистишь историю поиска в Bing (Меню профиля - Search History - Clear all. Потребует снова подтвердить почту), либо создаёшь новый аккаунт, либо генерируешь с задержкой, которая определяется в зависимости от загруженности сервера. Примерно до 15:00 по Москве обычно генерируется без длинных ожиданий.
Цензуре подвергаются следующие вещи: 1. Запрещена генерация жестокого контента, контента "для взрослых" и контента "провоцирующего ненависть" 2. Запрещена генерация изображений публичных личностей 3. Запрещена генерация изображений в стиле ныне живущих художников
Кредиты не тратятся, если ваш запрос не прошёл цензуру.
Как обходить цензуру: Цензуру постоянно дообучают. Бинг проверяет как сам промт, так и картинку которая получилась. Иногда это можно обходить, пример: 1. Помогает добавить частицу "не". "not Ryan not Gosling" поможет обойти цензуру на реальных людей 2. Если хочется сгенерировать что-то шальное, иногда помогает добавить деталей в картину, сместив фокус с того что хочется. 3. Визуальная цензура может не заметить запрещенный контент. Сиськи в татуировках легче протащить, так же как и голое тело в светящихся фракталах 4. Помогает пикантные моменты запихивать в конец промта. Если при этом нейросеть его игнорит, перемещать ближе к началу предложения и/или удваивать, типа "Not tights. Not stockings"
>>733758 Это самая простая и зацензуренная из нейросеток. Её ЦА - люди вроде меня: плохой пк + нежелание разбираться в сложных вещах. И как-то странно хвастаться своими работами в треде, когда конкретно твой вклад в итоговую работу минимален.
ИТТ делимся советами, лайфхаками, наблюдениями, результатами обучения, обсуждаем внутреннее устройство диффузионных моделей, собираем датасеты, решаем проблемы и экспериментируемТред общенаправленныей, тренировка дедов, лупоглазых и фуррей приветствуются
Существующую модель можно обучить симулировать определенный стиль или рисовать конкретного персонажа.
✱ LoRA – "Low Rank Adaptation" – подойдет для любых задач. Отличается малыми требованиями к VRAM (6 Гб+) и быстрым обучением. https://github.com/cloneofsimo/lora - изначальная имплементация алгоритма, пришедшая из мира архитектуры transformers, тренирует лишь attention слои, гайды по тренировкам: https://rentry.co/waavd - гайд по подготовке датасета и обучению LoRA для неофитов https://rentry.org/2chAI_hard_LoRA_guide - ещё один гайд по использованию и обучению LoRA https://rentry.org/59xed3 - более углубленный гайд по лорам, содержит много инфы для уже разбирающихся (англ.)
✱ LyCORIS (Lora beYond Conventional methods, Other Rank adaptation Implementations for Stable diffusion) - проект по созданию алгоритмов для обучения дополнительных частей модели. Ранее имел название LoCon и предлагал лишь тренировку дополнительных conv слоёв. В настоящий момент включает в себя алгоритмы LoCon, LoHa, LoKr, DyLoRA, IA3, а так же на последних dev ветках возможность тренировки всех (или не всех, в зависимости от конфига) частей сети на выбранном ранге: https://github.com/KohakuBlueleaf/LyCORIS
✱ Текстуальная инверсия (Textual inversion), или же просто Embedding, может подойти, если сеть уже умеет рисовать что-то похожее, этот способ тренирует лишь текстовый энкодер модели, не затрагивая UNet: https://rentry.org/textard (англ.)
➤ Тренировка YOLO-моделей для ADetailer: YOLO-модели (You Only Look Once) могут быть обучены для поиска определённых объектов на изображении. В паре с ADetailer они могут быть использованы для автоматического инпеинта по найденной области.
>>735000 В голосину с этих рук-членов на 1-2. Перетолстил ходят слухи что занимающиеся только реалистичными моделями вообще оче плохо шарят > кроме лица, которому явно нужен адетайлер Всем пикчам нужен экстерминатус ибо это бадихоррор. 4я тоже неэстетична.
Генерируя в коллабе на чужом блокноте будьте готовы к тому, что его автору могут отправляться все ваши промты, генерации, данные google-аккаунта, IP-адрес и фингерпринт браузера.
ComfyUI https://github.com/comfyanonymous/ComfyUI Интерфейс, заточенный на построение собственных workflow посредством организации конвееров через редактирование нод с различными действиями и указанием связей между ними.
Почему-то в ControlNet, если сразу по картинке пытаться срисовать позу, то очень долго генерится все, еще и маска неправильно определяется. Но если, сначала запустить препроцессор и снять маску, а потом по ней уже делать, то быстрее все работает(всего лишь раза в 3 дольше обычного времени). При этом чел на ютубе спокойно генерит на 2060 с такой же скоростью и прямо по картинке. Кал какой-то. Кстати, а какую модель вы используете для openpose? Я попробовал несколько и только thibaud_xl_openpose.safetensors(на 2,5 гига которая) показывает что-то близкое.
ИИ и анализ данных
Аноним12/05/24 Вск 14:44:28№736206Ответ
Аноны, в чем связь анализа данных и искусственного интеллекта? Я нихуя не понимаю, типо машинное обучение и нейронные сети связаны, являются разделами ИИ, а к чему отнести науку о данных? Привязанная схема является достоверной? Или ds главенствует над ИИ. Мб статьи прям какие-то есть, для себя нужного не нашел ниче. Хелп плиз мужики