Главная Юзердоски Каталог Трекер NSFW Настройки

Искусственный интеллект

Ответить в тред Ответить в тред
Check this out!
<<
Назад | Вниз | Каталог | Обновить | Автообновление | 513 85 74
Локальные языковые модели (LLM): LLaMA, Mistral, Command-R и прочие №56 /llama/ Аноним 29/04/24 Пнд 01:48:17 721275 1
Llama 1.png 818Кб, 630x900
630x900
Альфа от контек[...].png 121Кб, 3090x1830
3090x1830
Деградация от к[...].png 13Кб, 792x612
792x612
Самый ебанутый [...].png 849Кб, 715x954
715x954
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст, и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.

Здесь и далее расположена базовая информация, полная инфа и гайды в вики https://2ch-ai.gitgud.site/wiki/llama/

LLaMA 3 вышла! Увы, только в размерах 8B и 70B. Промты уже вшиты в новую таверну, ждём исправлений по части квантования от жоры, он в курсе проблемы и правит прямо сейчас.

Базовой единицей обработки любой языковой модели является токен. Токен это минимальная единица, на которые разбивается текст перед подачей его в модель, обычно это слово (если популярное), часть слова, в худшем случае это буква (а то и вовсе байт).
Из последовательности токенов строится контекст модели. Контекст это всё, что подаётся на вход, плюс резервирование для выхода. Типичным максимальным размером контекста сейчас являются 2к (2 тысячи) и 4к токенов, но есть и исключения. В этот объём нужно уместить описание персонажа, мира, истории чата. Для расширения контекста сейчас применяется метод NTK-Aware Scaled RoPE. Родной размер контекста для Llama 1 составляет 2к токенов, для Llama 2 это 4к, Llama 3 обладает базовым контекстом в 8к, но при помощи RoPE этот контекст увеличивается в 2-4-8 раз без существенной потери качества.

Базовым языком для языковых моделей является английский. Он в приоритете для общения, на нём проводятся все тесты и оценки качества. Большинство моделей хорошо понимают русский на входе т.к. в их датасетах присутствуют разные языки, в том числе и русский. Но их ответы на других языках будут низкого качества и могут содержать ошибки из-за несбалансированности датасета. Существуют мультиязычные модели частично или полностью лишенные этого недостатка, из легковесных это openchat-3.5-0106, который может давать качественные ответы на русском и рекомендуется для этого. Из тяжёлых это Command-R. Файнтюны семейства "Сайга" не рекомендуются в виду их низкого качества и ошибок при обучении.

Основным представителем локальных моделей является LLaMA. LLaMA это генеративные текстовые модели размерами от 7B до 70B, притом младшие версии моделей превосходят во многих тестах GTP3 (по утверждению самого фейсбука), в которой 175B параметров. Сейчас на нее существует множество файнтюнов, например Vicuna/Stable Beluga/Airoboros/WizardLM/Chronos/(любые другие) как под выполнение инструкций в стиле ChatGPT, так и под РП/сторитейл. Для получения хорошего результата нужно использовать подходящий формат промта, иначе на выходе будут мусорные теги. Некоторые модели могут быть излишне соевыми, включая Chat версии оригинальной Llama 2.

Про остальные семейства моделей читайте в вики.

Основные форматы хранения весов это GGML и GPTQ, остальные нейрокуну не нужны. Оптимальным по соотношению размер/качество является 5 бит, по размеру брать максимальную, что помещается в память (видео или оперативную), для быстрого прикидывания расхода можно взять размер модели и прибавить по гигабайту за каждые 1к контекста, то есть для 7B модели GGML весом в 4.7ГБ и контекста в 2к нужно ~7ГБ оперативной.
В общем и целом для 7B хватает видеокарт с 8ГБ, для 13B нужно минимум 12ГБ, для 30B потребуется 24ГБ, а с 65-70B не справится ни одна бытовая карта в одиночку, нужно 2 по 3090/4090.
Даже если использовать сборки для процессоров, то всё равно лучше попробовать задействовать видеокарту, хотя бы для обработки промта (Use CuBLAS или ClBLAS в настройках пресетов кобольда), а если осталась свободная VRAM, то можно выгрузить несколько слоёв нейронной сети на видеокарту. Число слоёв для выгрузки нужно подбирать индивидуально, в зависимости от объёма свободной памяти. Смотри не переборщи, Анон! Если выгрузить слишком много, то начиная с 535 версии драйвера NVidia это может серьёзно замедлить работу, если не выключить CUDA System Fallback в настройках панели NVidia. Лучше оставить запас.

Гайд для ретардов для запуска LLaMA без излишней ебли под Windows. Грузит всё в процессор, поэтому ёба карта не нужна, запаситесь оперативкой и подкачкой:
1. Скачиваем koboldcpp.exe https://github.com/LostRuins/koboldcpp/releases/ последней версии.
2. Скачиваем модель в gguf формате. Например вот эту:
https://huggingface.co/Sao10K/Fimbulvetr-10.7B-v1-GGUF/blob/main/Fimbulvetr-10.7B-v1.q5_K_M.gguf
Можно просто вбить в huggingace в поиске "gguf" и скачать любую, охуеть, да? Главное, скачай файл с расширением .gguf, а не какой-нибудь .pt
3. Запускаем koboldcpp.exe и выбираем скачанную модель.
4. Заходим в браузере на http://localhost:5001/
5. Все, общаемся с ИИ, читаем охуительные истории или отправляемся в Adventure.

Да, просто запускаем, выбираем файл и открываем адрес в браузере, даже ваша бабка разберется!

Для удобства можно использовать интерфейс TavernAI
1. Ставим по инструкции, пока не запустится: https://github.com/Cohee1207/SillyTavern
2. Запускаем всё добро
3. Ставим в настройках KoboldAI везде, и адрес сервера http://127.0.0.1:5001
4. Активируем Instruct Mode и выставляем в настройках пресетов Alpaca
5. Радуемся

Инструменты для запуска:
https://github.com/LostRuins/koboldcpp/ Репозиторий с реализацией на плюсах
https://github.com/oobabooga/text-generation-webui/ ВебуУИ в стиле Stable Diffusion, поддерживает кучу бекендов и фронтендов, в том числе может связать фронтенд в виде Таверны и бекенды ExLlama/llama.cpp/AutoGPTQ
https://github.com/ollama/ollama Однокнопочный инструмент для полных хлебушков в псевдо стиле Apple (никаких настроек, автор знает лучше)

Ссылки на модели и гайды:
https://huggingface.co/models Модели искать тут, вбиваем название + тип квантования
https://rentry.co/TESFT-LLaMa Не самые свежие гайды на ангельском
https://rentry.co/STAI-Termux Запуск SillyTavern на телефоне
https://rentry.co/lmg_models Самый полный список годных моделей
http://ayumi.m8geil.de/ayumi_bench_v3_results.html Рейтинг моделей для кума со спорной методикой тестирования
https://rentry.co/llm-training Гайд по обучению своей лоры
https://rentry.co/2ch-pygma-thread Шапка треда PygmalionAI, можно найти много интересного
https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing Последний известный колаб для обладателей отсутствия любых возможностей запустить локально

Шапка в https://rentry.co/llama-2ch, предложения принимаются в треде

Предыдущие треды тонут здесь:
>>717999 (OP)
>>714898 (OP)
Аноним 29/04/24 Пнд 02:00:46 721288 2
>>721217 →
Че значит сломаны? У меня 40777 + 333 тест спокойно проходит. 6 квант. Есть пруфы то что они сломаны?
Аноним 29/04/24 Пнд 02:06:36 721294 3
>>721288
У тебя не ггуф? Значит что-то другое. Конфиги там, или засирание контекста ахаха. В общем лично я жду окончательных фиксов.
Аноним 29/04/24 Пнд 02:07:32 721297 4
>>721288
>40777
тебя похоже тоже криво квантанули
там 4777 +333
Аноним 29/04/24 Пнд 02:08:40 721301 5
>>721297
Ты же понимаешь, что нет разницы никакой?
Аноним 29/04/24 Пнд 02:12:11 721307 6
>>721301
Есть. Правильный пример 3333+777, остальное не то.
Аноним 29/04/24 Пнд 02:16:41 721310 7
какие сейчас модельки лучшие по вашему мнению для кума с огромным контекстом?
Аноним 29/04/24 Пнд 02:36:56 721330 8
image 71Кб, 770x613
770x613
Пиздец
Аноним 29/04/24 Пнд 02:40:36 721334 9
Ну и че, где все эти ученые в говне моченые со своими смуфквантами и прочей хуетой? Почему Жорик без образования это самостоятельно чинить должен? Вахуе.
Аноним 29/04/24 Пнд 02:42:11 721336 10
>>721334
>где все эти ученые
Пилят новые модели. У них на голом трансформере это запускается и ладно. Оптимизация не по их части, впопенсорсовцы и квантовали в 4 раза почти без потерь. и обработку контекста срезали чуть ли не с квадратичной до линейной.
Аноним 29/04/24 Пнд 02:46:20 721341 11
>>721334
>ученые в говне моченые
работают на супер пупер оборудовании которое нам не светит
цены на одну игрушку начинаются с 15к зеленых вплоть до миллионов если говорить о блекквеле
Их и корпоратов которые им платят не ебут проблемы нищеты что не имеют каких то 40 гб видеопамяти
Ну и для нас выпускают всякие огрызки типа фи от мелкософта, тупые и лоботимированные
Аноним 29/04/24 Пнд 02:46:34 721342 12
Аноним 29/04/24 Пнд 03:01:10 721350 13
8ocjtn.jpg 111Кб, 556x757
556x757
Аноним 29/04/24 Пнд 03:40:34 721365 14
>>721310
>какие сейчас модельки лучшие по вашему мнению для кума с огромным контекстом?
Мику оригинальная, сказал бы я, но: для контекста больше 8к модели в Q4 требуется больше 48гб врам. Допустим она есть и контекст можно поднять аж до 32к; но скорость генерации ближе к этим 32к будет очень-очень грустной. Ждём всяких фишечек типа сохранения огромного контекста в обычной RAM, которые нам обещали... когда-нибудь.
Аноним 29/04/24 Пнд 03:59:13 721367 15
1.jpg 201Кб, 676x784
676x784
>>721330
Где-то 10% ответов неправильные. Но промпт простой, гоняю на русском. И это 8b.
Аноним 29/04/24 Пнд 04:43:39 721369 16
>>721367
Дай конкретную модель с ссылкой, промптом, настройкой семплера. И скажи на каком беке гоняешь.
Аноним 29/04/24 Пнд 09:54:38 721445 17
image.png 8Кб, 256x225
256x225
делал уже пост в нф но там вообще пусто так что пришел сюда.

парни крч с железом относительно напрягов нет так что подскажите ллм пиздатую в данный момент. в данный момент сижу на Llamix2-MLewd-4x13B.q8_0 а до этого на mlewd-remm-l2-chat-20b.Q6_K. и еще много чего пробовал по мелочи но там совсем мрак. так что может посоветуете что то более годное.

так мб кто то сможет пояснить за эти режимы запуска(?) в кобальте что на моем скрине

так же несколько раз натыкался на скрины настроек в кобальде но они были подписаны под другие лмм. или есть какие то внятные ресурсы где можно посмотреть таблицы.
так же вопрос где брать карты персов кроме чаб аи и дворника.
все добра
Аноним 29/04/24 Пнд 10:10:09 721452 18
Здраститя, то-ли я ебанутый, то-ли лыжи не едут - кобольдрокм работает медленнее с 6700хт, чем вулкан. У кого-то так было ещё?
Аноним 29/04/24 Пнд 10:49:03 721461 19
.png 8Кб, 601x128
601x128
Это, получается, некромоделька для кума ебёт соевую ламу для опущенных куколдов?
Аноним 29/04/24 Пнд 11:11:13 721468 20
>>721452
Раньше было наоборот, но может быть в последних патчах что-то наоптимизировали в вулкане.
Аноним 29/04/24 Пнд 11:16:38 721471 21
Пиздец у меня профдеформация от локалок по ходу. Каждый раз, как вижу в любом тексте отрывок длиннее 5-7 слов без знаков препинания, сразу какой-то тумблер щёлкает и в голове мысль "блять опять залупилась, снова лазить по контексту чистить вилкой говно". Только через секунду где-то приходит осознание.
Аноним 29/04/24 Пнд 11:48:38 721484 22
>>721295 →
Туть.
>>716256 →
>>716268 →
>>716269 →

>>721297
Хрюкнув.

>>721445
Если напряга нет, бери коммандер плюс (104б) в 6 кванте. Там нормас.
Если все же чуть напряжнее, то возьми мику или ллама3 70б.

Ну я хз, че те надо вообще.
Аноним 29/04/24 Пнд 12:00:01 721490 23
>>721452
Ну так вулкам пизже для радеонов, там чегото еще подкрутили для процессоров
Аноним 29/04/24 Пнд 12:11:07 721498 24
>>721493
А если вейвкодер + промпт? :) Может совсем пиздато будет?

Ща посравниваю, уговорил.
Аноним 29/04/24 Пнд 12:15:38 721502 25
>>721461
Нормальная ллама3 ебет, уже проверенно на онлайн версиях, даже 8б адекватно отвечает. Просто у Жорика говнокод, поэтому ждем исправлений, а вообще конечно лучше бы уже новые кванты запилили.
Аноним 29/04/24 Пнд 12:22:02 721506 26
>>721502
Которую неделю ждем уже!
Че там с экслламой, пофиксили ее хотя бы? Или тоже собирать данные из постов анонов из прошлого треда?

На какой модели я могу почувствовать всю мощь лламы 8 щас?
Аноним 29/04/24 Пнд 12:31:37 721513 27
>>721506
> На какой модели я могу почувствовать всю мощь лламы 8 щас?
EXL2 в 6.0bpw. У Жоры токенизатор сломан, у питонистов устаревшие говнокванты от GPTQ.
Аноним 29/04/24 Пнд 12:50:58 721529 28
firefoxc7l7MtoE[...].png 4Кб, 536x58
536x58
Аноним 29/04/24 Пнд 13:04:30 721546 29
>>721529
Я уже exllama ставлю, Жорик доверие потерял.
Аноним 29/04/24 Пнд 13:11:29 721558 30
Аноним 29/04/24 Пнд 13:23:03 721571 31
>>721506

Экслама работает, настройки и конфиги в прошлом треде выложены.
Аноним 29/04/24 Пнд 13:24:46 721574 32
12th Gen Intel(R) Core(TM) i9-12900HK 2.90 GHz
NVIDIA GeForce RTX 3080 Ti 16gb
озу 32
лама 70b пойдет? если нет, то может взять озу на 64 или еще больше брать?
Аноним 29/04/24 Пнд 13:32:54 721578 33
>>721574
Должна ddr5 если так совсем хорошо
Аноним 29/04/24 Пнд 13:35:42 721582 34
>>721574
Лучше взять вторую видюху в прошлом треде пии сали про P40 за 20 тысяч 24 гигабайта видео памяти. Там охлад кастомный
Аноним 29/04/24 Пнд 13:42:40 721591 35
>>721502
По моим наблюдениям все тюнинги лламы 3 работают неровно. В одних задачах прямо вызывают восторг и желание сразу же сделать эту модель своей фавориткой. А потом оказывается, что в другой задаче хуже некуда, причем никакие манипуляции с настройками это не лечат.
Аноним 29/04/24 Пнд 13:43:53 721593 36
>>721574
> RTX 3080 Ti 16gb
Это что за зверь?
Аноним 29/04/24 Пнд 13:53:51 721605 37
Аноним 29/04/24 Пнд 14:00:45 721608 38
Аноним 29/04/24 Пнд 14:11:41 721616 39
>>721608
Ну, еще не дождались
И это только один косяк который заметили, думаю найдут и еще что то
Аноним 29/04/24 Пнд 14:11:54 721618 40
image.webp 45Кб, 1614x170
1614x170
Аноним 29/04/24 Пнд 14:15:02 721621 41
>>721618
Выглядит как невероятно замороченный костыль
А че с токенизатором не так то? Почему не пользоваться оригинальным механизмом?
Аноним 29/04/24 Пнд 14:51:42 721638 42
>>721513
А в 8.0 нет? =(

>>721571
Я ж грил, без них нет готовой? Ну шо за дичь у квантовиков, им настока похуй…

>>721574
Ну так, ку4_к_м влезет в сумме впритычок, но лучше добрать.
Скока можешь, стока и добрать.

>>721605
Ну, вторую ссылку можно было не давать. =D
Аноним 29/04/24 Пнд 15:00:26 721642 43
Чет я не осилил вашу exllamу поставить, какой-то пиздец анакода просто не компилит среду хоть усрись. Почему блять ебанаты не осилили докер?

> https://github.com/vllm-project/vllm
Алсо, а вот это кто-то пробовал? Годные кванты?
Аноним 29/04/24 Пнд 15:28:30 721660 44
Есть какой-то пул вопросов по которым тестят ЛЛМ?
Аноним 29/04/24 Пнд 15:44:07 721672 45
>>721471
Я иногда начинаю переводить посты анонов с русского на русский, или писать текста в переводчик.
>>721506
>Которую неделю ждем уже!
Вторую? Прям насыщенные дни были, треда катятся каждые 2 дня, едва успеваешь читать.
>>721621
>Почему не пользоваться оригинальным механизмом?
Он не на ссях.
>>721660
Конечно. Было где-то тредов 10 назад, ищи по строке с петухами и собаками.
Аноним 29/04/24 Пнд 16:02:13 721685 46
>>721642
Ну ало нахуй, вы отвечать будете? Или тут нихуя кроме кобальда не знают?
Аноним 29/04/24 Пнд 16:04:32 721689 47
>>721685
На что отвечать? По екслламе ты никаких сведений не предоставил, по второй хуёвине ты первый в треде написал. Не бурчи, а показывай, что у тебя там не встаёт.
докер зло
Аноним 29/04/24 Пнд 16:44:36 721705 48
Аноним 29/04/24 Пнд 17:07:40 721712 49
>>721689
> докер зло
От тебя советов не жду, дебил.

>>721705
> GGUF
Чел..
Аноним 29/04/24 Пнд 17:18:42 721714 50
Аноним 29/04/24 Пнд 17:22:35 721717 51
>>721712
ставит докер называет дебилом другого

>>721714
че, даже работает?
Аноним 29/04/24 Пнд 17:28:14 721719 52
>>721717
пока не проверял, у llama.cpp теперь есть bpe-токенайзер так что всё должно работать.
Аноним 29/04/24 Пнд 17:31:44 721722 53
>>721672
Эт да, на самом деле, не так долго.

>>721714
А теперь ждем кобольды-убы-олламы-итд.
Аноним 29/04/24 Пнд 17:44:56 721727 54
>>721722
главное что бы кванты не пришлось перекачивать
Аноним 29/04/24 Пнд 17:47:02 721730 55
Аноним 29/04/24 Пнд 17:57:49 721736 56
>>721712
> GGUF
>Чел..
Нормально вроде общались
Аноним 29/04/24 Пнд 18:13:34 721745 57
>>721730
это уже третий раз? или четвертый?
Аноним 29/04/24 Пнд 18:19:20 721757 58
>>721275 (OP)
А для чего вы вообще ещё используете ЛЛМки, кроме куминга, ролеплея и кодоассиста? Может есть какие-то более нестандартные применения?
Аноним 29/04/24 Пнд 18:27:31 721766 59
>>721757
Применений масса - все что связанно с текстом. Редактирование, перевод, компиляция, анализ итд.
Аноним 29/04/24 Пнд 18:29:50 721775 60
Как проверить накатили фикс на угубугу? для ламы3
Аноним 29/04/24 Пнд 18:29:50 721776 61
file.png 17Кб, 687x427
687x427
Аноним 29/04/24 Пнд 18:32:02 721777 62
>>721757
перевод хорош, да и вобще возможность работы с любы текстом локально без инета тоже хорошо
Аноним 29/04/24 Пнд 18:33:32 721779 63
>>721775
Для начала перекачай квант на свежий, потом спрашивай >>721307
Аноним 29/04/24 Пнд 18:46:13 721785 64
>>721776
> For proper llama3 support, you may pass --override-kv tokenizer.ggml.pre=str:llama3 to main or server without generating a new gguf file.
Но лучше перекачать.
Аноним 29/04/24 Пнд 18:50:30 721787 65
Ну че где кванты новые качать
Аноним 29/04/24 Пнд 18:58:22 721802 66
>>721745
Я после первого не перекачивал, жду, когда пофиксят.
Аноним 29/04/24 Пнд 19:08:27 721813 67
>>721484
коммандер не нашло. лламу нашло.

по железу у меня 5800х3д, 3070,64гб может со спеками железа будет легче подсказать. хотелось бы что бы генерело еще чуть по быстрее
Аноним 29/04/24 Пнд 19:11:03 721814 68
Аноним 29/04/24 Пнд 19:18:28 721818 69
>>721471
>>721672
Но ведь сразу же бросается в глаза, когда текст написан человеком, а не нейронкой.
Аноним 29/04/24 Пнд 19:20:13 721820 70
>>721785
Там матрицы важности могли ещё по пизде пойти, если токенизатор вгонял говняк. Так что переквантовывать обязательно надо.
Аноним 29/04/24 Пнд 19:25:07 721827 71
Аноним 29/04/24 Пнд 19:55:14 721850 72
>>721820
токенизатор сломан
Аноним 29/04/24 Пнд 19:57:48 721852 73
Че происходит объясните
Аноним 29/04/24 Пнд 19:59:49 721854 74
>>721827
Попробовал запустить на кобольде. 3333+777 не считает, да еще и ассистентом срет.
Аноним 29/04/24 Пнд 20:04:23 721857 75
>>721854
Да блять... Короче в пизду этого Жору ебаного, надо переходить на что-то другое.
Аноним 29/04/24 Пнд 20:05:59 721859 76
>>721854
Так кобольд ещё не обновился с этим фиксом.
Аноним 29/04/24 Пнд 20:07:47 721861 77
firefoxdEpqbb7a[...].png 3Кб, 173x100
173x100
firefoxm0ibHyb0[...].png 3Кб, 206x97
206x97
>>721854
bartowski поторопился (обнова llama.cpp 13 минут назад а его кванты уже час висят), и lostruins чёто мутит там на experimental ветке.
Аноним 29/04/24 Пнд 20:17:52 721869 78
Если пользуешься RAG, то похуй на контекст модели? Или лучше побольше? Требуется провести работу с несколькими документами, общий размер примерно 30-40к токенов.
Аноним 29/04/24 Пнд 20:33:14 721872 79
>>721869
Смотря что за документы, и сколько нужно строк из них для того, чтобы сделать задачу.
Аноним 29/04/24 Пнд 20:46:02 721878 80
Какой же бартовский долбаеб сука, ну что за инвалидское комьюнити нахуй дегенератов васянов сброище, Я ПРОСТО ХОЧУ ПОГОНЯТЬ МОДЕЛЬ, КОТОРУ РЕЛИЗНУЛИ НАХУЙ МЕСЯЦ НАЗАД.
Аноним 29/04/24 Пнд 20:59:34 721883 81
>>721878
Гоняй на чистых трансформерах кодом из стандартного репозитория меты, они месяц как работают. Ах да, нужна A100 80GB. Нету? Ну тогда страдай, хули ты хотел.
С первой лламой тоже много веселья было по началу. Эх, я ведь её даже в кобольде запускал (который не cpp если что).
Аноним 29/04/24 Пнд 21:04:44 721886 82
>>721878
>Я ПРОСТО ХОЧУ
Возьми и сделай сам.
Аноним 29/04/24 Пнд 21:12:20 721892 83
>>721869
Смотря как работает RAG и какие запросы. Обычно тащится не более 3к токенов (в среднем куда меньше) информации плюс твой запрос - 8к должно на все хватать.
>>721878
> Я ПРОСТО ХОЧУ
Для любого хочу нужно иметь средства. Видеокарты купил? Тогда терпи.
Аноним 29/04/24 Пнд 21:14:14 721893 84
>>721878
8b легко квантуется на некропеке.
Аноним 29/04/24 Пнд 21:16:46 721894 85
image.png 291Кб, 1084x814
1084x814
>>721814
и что из этого качать анонче?
Аноним 29/04/24 Пнд 21:29:11 721911 86
изображение.png 157Кб, 2295x215
2295x215
Аноним 29/04/24 Пнд 21:36:49 721926 87
>>721911
ну сейчас качну первое потыкаю немного отпишу шо как. спасибо за помощь анонче
Аноним 29/04/24 Пнд 21:38:12 721929 88
>>721926
качай вначале 4км, потом посмотришь хватит тебе памяти или нет
эта штука очень много памяти для контекста жрет
Аноним 29/04/24 Пнд 21:38:38 721930 89
А я чего-то не понимаю?
Почему в последние полгода мало стало EXL2?
Появился более интересный варик?
Аноним 29/04/24 Пнд 21:45:04 721935 90
>>721930
Почему мало? Все на месте. Она довольно редко ломается и не нужно делать по 50 версий на каждый коммит Жоры. Также многие квантуют самостоятельно под свой размер и на желаемом датасете.
> Появился более интересный варик?
Нет.
Аноним 29/04/24 Пнд 21:49:56 721944 91
>>721935
A AWQ?
Или он по размеру больше?
Аноним 29/04/24 Пнд 22:01:34 721966 92
>>721929
скачал обе попробовал они тупо не запускаются. выбираю в кобальде оно пытается запустить и просто схлопываеться.
на счет памяти у меня 64гб ддр4 так что думаю запас есть
есть еще какие то варианты или рекомендации что можно скачать пощупать?
Аноним 29/04/24 Пнд 22:04:41 721977 93
>>721944
Да как-то не взлетел и не сыскал популярности. Нет гибкости, с лаунчерами грустно, уступает ггуфу по доступности и совместимости, уступает exl2 по скорости и эффективности.
>>721966
> рекомендации
Запустить кобольда из консоли чтобы увидеть с какой ошибкой он вылетает.
Аноним 29/04/24 Пнд 22:06:41 721979 94
>>721977
а можно простенькую инструкцию как это сделать? а то я совсем хомяк в этом плане
Аноним 29/04/24 Пнд 22:14:28 721995 95
>>721813
command r 35b

С 64 гигами можно и miqu https://huggingface.co/miqudev/miqu-1-70b , но медленно будет.

>>721818
Нет. Все зависит от промпта и примера, к примеру.
Ну и подправить руками немного можно.

>>721854
Это под новую лламу.цпп, кобольд уже релизнули новую версию?

>>721861
Ну, не то чтобы поторопился, почему бы и нет. =) Молодец. Лишь бы еще раз переквантовал.

>>721869
Контекст сам по себе никогда не помешает.
В 2К ты ни с каким раг не сунешь толком нужное.

>>721883
Коммандер тоже работал первые дни, потом на пару недель откатили. =) Щито поделать-десу.

>>721935
И не выкладывает, пидоры. =)

>>721979
Командная строка.
Заходишь в папку, где лежит кобольд.
./koboldcpp.exe

Вроде так.
Аноним 29/04/24 Пнд 22:17:46 721999 96
image.png 31Кб, 977x159
977x159
image.png 15Кб, 856x95
856x95
>>721995
я обновил кобольд у меня стояла версия 1.50 вроде а сечас поставил новую и оно завелось но вот качество текста чет пиздец (пик один)
ну и время генерации тоже я ибу 130 секунд блядь. можно что то менее косноязычное и чуть более шустрое
пик 2 название модели
Аноним 29/04/24 Пнд 22:18:45 722002 97
Анончики, решил вместо кобальда попробовать text-generation-webui, так на тех же настройках, те же самые модели, стали прямо заметно лучше отвечать и сочинять. Что за хуйня? Ведь должно быть одно и тоже?
Аноним 29/04/24 Пнд 22:24:59 722007 98
>>721999
Ваще, за кобольд не шарю.
А, ну и, у меня коммандер q6, мне показалось, там лучше.
Но быстрее не выйдет. Быстрее — меньше модель.
Подожди, пока выпустят новые кванты + новые версии.

>>722002
Кобольдопроблемы!..
Сижу на убабуге, настраиваю все сам.
Но и там не идеально, таверна даст получше резалт, вроде.

Поэтому совет обоим — ставим таверну, настраиваем карточку там, должны быть получше.
Аноним 29/04/24 Пнд 22:26:04 722010 99
>>721999
Нихуя. А какая у тебя система там. Видюха, проц, сколько памяти?
Аноним 29/04/24 Пнд 22:26:41 722012 100
>>722007
таверну ставил но чет захлебнулся и вышла какая та залупа и генерил он как то криво в итоге ушел на кобольд обратно
Аноним 29/04/24 Пнд 22:27:06 722013 101
Аноним 29/04/24 Пнд 22:28:12 722014 102
>>722007
Таверна это чисто морда для кобольда или убы. Если в таверну придётся результат уровня 10+9=109, то чуда не случится. Так что полезность таверны под вопросом.
Аноним 29/04/24 Пнд 22:50:46 722032 103
Избалован я кобольдомспп. Вообще никаких проблем при соединении СиллиТаверн, даже с другого компьютера. А в Убабуге разбираться надо. Вот порт 5000 для неё пробросил, теперь гадаю, как стриминг вывода включить. Кто знает - расскажите.
Аноним 29/04/24 Пнд 22:50:59 722033 104
>>721911
завел и потыкал обе результат честно сказать так себе. оно ксноязычны и долго генерят. есть ишо варианты?
Аноним 29/04/24 Пнд 22:53:28 722035 105
>>722032
> разбираться надо
Добавить
> --api
в CMD_FLAGS.txt
Все остальное по умолчанию идет, таверна свои настройки запрашивает.
Аноним 29/04/24 Пнд 23:08:10 722042 106
>>721999
Тебе именно на русском что ли надо генерить?
Аноним 29/04/24 Пнд 23:08:11 722043 107
>>722035
>Все остальное по умолчанию идет, таверна свои настройки запрашивает.
Да всё работает, сгенерированный текст выводится, но одним куском. А хотелось бы стриминга, чтобы потокенно. Может и в Таверне где-то покрутить надо, я хз. Или эндпойнт особый.
Аноним 29/04/24 Пнд 23:10:16 722044 108
изображение.png 11Кб, 558x104
558x104
>>722043
>Может и в Таверне где-то покрутить надо
Да, действительно, как же может называться эта настройка?
Аноним 29/04/24 Пнд 23:22:15 722050 109
>>722044
Эврика, как говорил Архимед. Нашёл.
Аноним 29/04/24 Пнд 23:23:31 722051 110
>>722042
бля не. я юзаю переводчик в хроме но на млевде оно норм переводит. тут я думаю проблема в самой модели.
хотя варик с русским интересен
Аноним 29/04/24 Пнд 23:30:49 722054 111
Аноним 29/04/24 Пнд 23:34:41 722056 112
>>722014
Нет. Внимательнее к матчасти.
И уба, и кобольд, и таверна подают свои промпты. В Таверне очень удобно настраивать промпт и он без всяких танцев с бубнами виден в консоли.
Кобольд я хз че там пихает вообще, и что там с карточками не ебу.
Уба между ними — вроде настраивается, конечно, но не настолько детально как хотелось бы. Неинтуитивно нихуя, в отличие от таверны.

Я крайне сомневаюсь, что люди, у которых в кобольде хуевые резулты, идеально и посимвольно настроили свои промпты, так, как им нужно с учетом всех системных токенов.
Из коробки оно, очевидно, обосралось.

Так что, лишний раз покопаться с промптом — прямой путь к улучшению результата.

Напомню, что у меня 3333+777 и прочие задачи ллама прекрасно решает, хотя у других когда как и шизит. А почему? А потому что я промпт и семплеры спиздил у чела из треда, и даже кривую и поломанную лламу они кое-как да чинят.
Аноним 29/04/24 Пнд 23:37:14 722057 113
>>722054
>1 миллион токенов контекст
Даже не знаю, радоваться ли этому.
29/04/24 Пнд 23:37:15 722058 114
>>722056
уговорил, как установить таверну?
Аноним 29/04/24 Пнд 23:39:02 722059 115
>>722054
Я уже седня это в телеге писал и тут спрошу — а пихать куда этот контекст будете? А ждать недельку обработки норм?
Ну так. =)
Если у нас хотя бы 1к токенов — 500 мб (чи скока там), 50к токенов — уже 25 гигов (на самом деле, нет). А на оперативе промпт обрабатывается не быстро.
Поэтому, иметь условно 64~128 — база.
А вот 1М+ — это уже корпоратам, у которых есть риги из 16 80-гиговых A100 («стареньких»), и им лишний терабайт видеопамяти позволяет кое-как утилизировать это окошко контекстика.

Попробуйте тупо в мистрали 32к контекста врубить и закинуть туда ~20к токенов контекста. И расскажите, когда он у вас «дочитает». Я не про понимание текста, я про сам факт, сколько времени на это уйдет.
Аноним 29/04/24 Пнд 23:40:55 722061 116
Аноним 29/04/24 Пнд 23:41:06 722062 117
>>722051
>тут я думаю проблема в самой модели
Ну хуй знает, коммандер как по мне хорош, никакой кривизны на инглише не замечал. На русском он тоже может, но шизовато. Использую модель command-r-v01-imat-Q5_K_M.gguf через таверну, настройки дефолтные.
Аноним 29/04/24 Пнд 23:41:29 722063 118
>>722014
>полезность таверны под вопросом
Для RP, под который она заточена - полезность уровня мастхэв. Карточки, модульные промпты, регэкспы, три миллиона всякой вспомогательной хуйни.
Аноним 29/04/24 Пнд 23:43:35 722064 119
>>722056
>3333+777 и прочие задачи ллама прекрасно решает
В убе отлично решает с промптом типа "ты ии. ты помогаешь" и абсолютно рандомным семплером. Если таверна так не может, то таверна кал.
Аноним 29/04/24 Пнд 23:55:19 722068 120
>>722064
Причем тут таверна-то?
Речь про кобольда, что он нихуя че-то не может. =)
При этом, я его не осуждаю, но он простенький для попробовать.
Аноним 29/04/24 Пнд 23:58:42 722072 121
>>722068
Кобольд поверх ггуф, а они же все поломанные на третьей лламе. Так что не удивительно, что шизит.
Аноним 30/04/24 Втр 00:07:41 722075 122
>>722062
можно ссылку на модель попытался загуглить но их там слишком дохуя
Аноним 30/04/24 Втр 00:12:06 722076 123
Аноним 30/04/24 Втр 01:59:09 722120 124
>>722076
у тебя шо по железу? и насколько важно наличие таверны. выще писал что ставил ее но через нее он срыгивала вообще косноязычную хуету и по итогу я удали и вернулся на кобольд
Аноним 30/04/24 Втр 02:38:32 722133 125
изображение.png 139Кб, 968x216
968x216
>>722120
32 Гб RAM, 4070 с 16 Гб и проц i5 13600k. Генерится со скоростью 1.5 т/с, контекст ставлю 8к.
>насколько важно наличие таверны
Таверна не важна, но с ней просто удобнее имхо, чем в голом кобольде. Если с ней что-то криво генерирует, значит дело в настройках. У меня вот всё норм.
Аноним 30/04/24 Втр 02:44:14 722134 126
Чет я подумал короче и получается что вся вот эта херня с метой и опенсорсом по сути пошла из-за того что рандомхуй с форчана слил веса собсна на форчан и зак под копиумом решил такой "Нееет, это не плохо что веса слили!!!1!!1 Неправда! Более того это нам выгодно!!!1 Поняли нах сынки??" и со второй ламы самостоятельно контрибтютит в опенсорс. Буквально ничего кроме лабф у опенсорса то и нет. Ща бы сидели на gpt-j и дальше и сосали бибу. По факту если опенсоурс сможет в AGI то это все из-за одного хуя с форчяна.
Аноним 30/04/24 Втр 02:50:17 722135 127
Коллаб похоже опять перестал работать. Проблема как и в прошлый раз.
Аноним 30/04/24 Втр 02:54:42 722136 128
>>722135
Похоже скоро гугл окончательно свернет кум и придется накатить линукс, так на винде это кривые и косые танцы с бубном. Попробовал кобольд, переводчика встроенного нет, нихуя неудобно все.
Эх, а ведь я помню в первых тредах я брал интерфейс практически идентичный уге.
Аноним 30/04/24 Втр 03:36:16 722140 129
>>722133
а как контекст выставить?
Аноним 30/04/24 Втр 03:36:41 722141 130
Аноним 30/04/24 Втр 04:33:53 722156 131
70б тоже получается переквантовывать. 8б уже проверил и считает 4777+333 нормально
Аноним 30/04/24 Втр 06:57:54 722182 132
17130641964810.jpg 48Кб, 480x640
480x640
>>722134
> рандомхуй с форчана слил веса собсна на форчан и зак под копиумом решил такой "Нееет, это не плохо что веса слили!!!1!!1 Неправда! Более того это нам выгодно!!!1 Поняли нах сынки??" и со второй ламы самостоятельно контрибтютит в опенсорс. Буквально ничего кроме лабф у опенсорса то и нет. Ща бы сидели на gpt-j и дальше и сосали бибу. По факту если опенсоурс сможет в AGI то это все из-за одного хуя с форчяна.
Считаешь, этому неизвестному соевику нужно пикрил памятник при жизни поставить?
Аноним 30/04/24 Втр 07:02:02 722183 133
>>722134
Хуйня, рептилоид бы и так выкинул веса. Просто ссал сначала, он же литералли Гитлер, которого в сенате песочили.
Аноним 30/04/24 Втр 07:02:53 722184 134
>>722134
>>722183
Алсо, это не рандомхуй с фочана, он слил на фочан. Биг дифференс. Все сливы идут туда всегда
Аноним 30/04/24 Втр 09:34:30 722233 135
>>721827
Ок, запустил, даже не срёт асистами и не шизит, но резальт этой модели какой-то сухой. Ну генерит текст, но прям вообще ничем не выделяется от основной массы. Я что-то не так делаю?
Аноним 30/04/24 Втр 09:42:53 722235 136
Аноним 30/04/24 Втр 09:43:09 722236 137
Аноним 30/04/24 Втр 10:13:46 722243 138
>>722236
я другой анон если что. там в описание написано юзать таверну. а что если ставить ее в падлу? (я ставил ее но не понял прикол и снес к хуям учитывая что результат был хуже чем просто с кобольдом)
Аноним 30/04/24 Втр 10:17:11 722245 139
image.png 31Кб, 758x224
758x224
Аноним 30/04/24 Втр 11:34:13 722298 140
>>722243
>написано юзать таверну. а что если ставить ее в падлу?
Таверна (Silly Tavern) развивается уже довольно давно. И по сравнению с первыми версиями достигла определённой степени совершенства - как вторая Ллама по сравнению с первой например. Люди даром времени не теряли. А ты, анон, отказываясь от такого удобного инструмента наоборот его теряешь.
Аноним 30/04/24 Втр 11:37:43 722302 141
gpt5.png 478Кб, 2048x2292
2048x2292
>>722245
gpt2-chatbot на lmsys лучше лламы 70б справляется с алгеброй.
Аноним 30/04/24 Втр 12:28:22 722337 142
изображение.png 32Кб, 672x374
672x374
изображение.png 38Кб, 407x538
407x538
Аноним 30/04/24 Втр 13:14:18 722351 143
>>722298
Я за последние годы понял, что нахуй не надо уговаривать людей. Не хотят разбираться в крутой штуке и использовать ее — фиг с ними, от них ни холодно, ни жарко.

Как меня спрашивают «а что ваши ллм умеют, они ничего не умеют!» и как-то нафиг мне ему объяснять, что они умеют? Пока он ими не пользуется — у меня выше цена на рынке, а он пусть сосет хуй, если хочет.

>>722243
Не тебе, не восприми буквально последнюю фразу.

Но просто к тому, что лишний раз не стоит уговаривать людей, не хотят — ну и не надо. =)

>>722302
Ну, выкатили и выкатили новую чатгопоту, логично, что она лучше.
Не имеет значения:
1. Еще не АГИ, и не САИ (не общий и не сильный).
2. Не опен модель.
Аноним 30/04/24 Втр 14:15:57 722382 144
Платина уже наверное, но как отучить модель разговаривать с самой собой?
Аноним 30/04/24 Втр 14:16:17 722383 145
>>722134
Мета раздавали веса каждому первому студенту (мне не дали), так что они должны были понимать, что веса сольют.
>>722233
Карточку нормальную брал, или ты от ассистента ждёшь покачивания бёдрами (или что там кумеры любят).
>>722302
Не опенсорс, игнорируем.
Аноним 30/04/24 Втр 14:22:54 722388 146
>>722382
В общем-то никак, это их свойство. А так всегда есть стоп токены, если она выдаёт после ответа "User: продолжение банкета", то всегда можно внести User: в стоп фразы.
Аноним 30/04/24 Втр 14:44:46 722401 147
Кто-нибудь знает где взять како-то хуев BpeVocab, если его нет в файлах лламы-3, там токенизатор json какой-то.
Вот поледняя ллламацпп (релиз 3 мин назад):
TypeError: Llama 3 must be converted with BpeVocab
Или где добыть нормально квантованный ллама-3 в ггуф на 8 бит? Только не показывайте репозитории уебанов и ебланов с HF у которых ггуфы кривые и косые как они сами. Там есть всего пара челиков с прямыми квантами и это не бартовский увы сразу говорю.
Аноним 30/04/24 Втр 14:46:55 722402 148
Аноним 30/04/24 Втр 15:31:00 722422 149
>>722402
GGUF quantization: provided by bartowski based on llama.cpp PR 6745
Проверял сам то? а то с прошлой недели комит и бартовский и лм студио...
Проблема конвертации том что ггуф не обновлялся полгода оказывается. а как его присобачить новый помимо пип хуй знает, я не настолько продвинут да мне оно и в хуй не уперлось пердолитсся
Аноним 30/04/24 Втр 15:42:49 722432 150
>>722422

Чет нихуя не пойму, раньше в моделькарде было указано что она была квантована b2764 кажется, сейчас найти не могу это. Ну у меня решило 4777+333 правильно.
Аноним 30/04/24 Втр 15:49:47 722438 151
изображение.png 8Кб, 789x95
789x95
>>722432
>Чет нихуя не пойму
Просто ты тупой. Они откатили этот коммит.
Аноним 30/04/24 Втр 16:00:13 722444 152
>>722438
Ну значит соси хуй теперь или сам квантуй.
Аноним 30/04/24 Втр 16:02:12 722447 153
>>722401
>TypeError: Llama 3 must be converted with BpeVocab
он кидает эту ошибку потому что жора брал хеши последних токенизаторов, а у тебя старый, перекачай новый и заработает конвертация.
Аноним 30/04/24 Втр 16:09:45 722451 154
>>722447
я бы сделал если бы понял хоть слово. какие хэши? каких токенизаторов? токенизатор в питон пакете гуф, питон пакет надо поставить не из пип а из его репы гуф-пай. как - ну это я не знаю там ни whl ни сетап пай нет. если это не так а ты знаешь как надо то объясни нормально, а то хэши это в асиках. тут какие хэши мне непонятно. а уж хэши токенизаторов еще и последних это вообще что такое?
Аноним 30/04/24 Втр 16:11:20 722452 155
>>722432
>Ну у меня решило 4777+333 правильно.
А у меня нет, как нес ахинею про:

33,333 + 7,777 = 41,110

Так и несёт.
Аноним 30/04/24 Втр 16:11:54 722454 156
Бля какая ж ллама 3 проблемная вышла, ни запустить ее нормально, ни квантануть, ни дообучить
Даже файнтюнов ведь нету которые лучше инструкт версии
Аноним 30/04/24 Втр 16:16:08 722456 157
>>722454
Теория заговора: А ты думал, попенсорс движение сворачивают вот такими вот моделями, которые невозможно дообучить.
Аноним 30/04/24 Втр 16:18:54 722457 158
>>722452
Ну смотри
llama.dll отсюда https://github.com/ggerganov/llama.cpp/releases/tag/b2772 avx2

gguf q8 отсюда, когда еще не было отката https://huggingface.co/lmstudio-community/Meta-Llama-3-8B-Instruct-GGUF/commit/0ebcf8cb99229090371da6c2a35c09a52e3e2bdd

Прога для общения по АПИ своя. с запуском --temp 0.6 --top-k 30 --top-p 0.9 --repeat-penalty 1.1 -m Meta-Llama-3-8B-Instruct-Q8_0.gguf -c 8192 -r "<|eot_id|><|start_header_id|>user<|end_header_id|>\n\n" --in-suffix "<|eot_id|><|start_header_id|>assistant<|end_header_id|>"
Аноним 30/04/24 Втр 16:21:30 722461 159
изображение.png 4239Кб, 1902x906
1902x906
Аноны, есть ссылки на датасет с качественными порно диалогами на русском? Хочу попробовать новую лламу зафайнтюнить
Аноним 30/04/24 Втр 16:29:43 722466 160
>>722461
Нету, только английский.
Аноним 30/04/24 Втр 16:35:52 722473 161
image.png 174Кб, 1920x1040
1920x1040
Смех Джокера. Х[...].mp4 1223Кб, 1280x690, 00:00:07
1280x690
>>722402
Ух умёёёён! Ух малацы!
Аноним 30/04/24 Втр 16:39:12 722482 162
>>722451
хэш-сумма токенизатора.
тебе нужно запускать convert-hf-to-gguf для конвертации лламы3 в ггуф, это во первых, во вторых у тебя должен быть скачать новый токенизатор из репозитория лламы, который был обновлен 6 дней назад, тогда все заработает.
Аноним 30/04/24 Втр 16:44:03 722490 163
Вангую никто новые кванты уже выкладывать и заливать в репозитории не будет. Мол ебитесь сами. Ахуенное просто комьюнити дебилов.
Аноним 30/04/24 Втр 16:47:34 722493 164
Блин, это наверное очень частый вопрос, но посоветуйте что скачать (желательно без сленга, ибо я тупой, в идеале сразу ссылку) для куминга? (для написания историй на англ языке в идеале) есть модели которые конкретно заточены под это? я думаю они явно будут лучше справляться чем просто дефолтную скачать?
Аноним 30/04/24 Втр 16:55:06 722497 165
>>722490
Выложат, когда тряска прекратится. Вполне возможно, что сейчас ещё немного потрясёт. Приходи через неделю.
>>722493
Чем тебя модель в шапке не устраивает?
Аноним 30/04/24 Втр 16:58:48 722499 166
>>722482
Ебаать, так это я никогда не скачаю. Этот трансформер качал у нойс, у меня реп ламы-3 закрыт и даже запрос не стану посылать, мне на ламу 2 открыли когда уже я и забыл про это наверно месяц-два назад. я и ту то качал с другого места. Словом совершив круг возвращаемся к первому вопросу где взять ебаный токенизатор бпе?
Аноним 30/04/24 Втр 17:00:14 722500 167
>>722497
Качаю квант лмстудио, если эта хуйня не решит 3333+777, то я оплачиваю подписку на опус и ливаю нахуй из этого помойного треда.
Аноним 30/04/24 Втр 17:02:40 722502 168
>>722500
Гвоздиками дорога.
Аноним 30/04/24 Втр 17:04:42 722503 169
хотя я решил поступить проще - нахер мне гуф для 8б - потянет exl2 в 8bpw если будет нехватать то уж 6bpw 100% без проблем. С другой стороны они их квантуют на вики тексте что не есть хорошо, ибо это английская матрица, а хочу общаться на русском - на некорявом русском ну то есть как с командиром. Только с командиром медленно - а так бы накуй эта лама-3 была не нужна
Аноним 30/04/24 Втр 17:08:03 722505 170
>>722499
там доступ открывают за минут 15, если ты свои данные оставишь. к чему вопрос про токенизатор? я тебе уже объяснил, что ты во первых запускаешь не тот скрипт. во вторых ты должен скачать файл токенизатора обновленный, чтобы у тебя скрипт из-за неправильного хэша не падал. если ты не шаришь или тебе лениво, зачем тебе это все? жди пока рабочие кванты выпустят. так или иначе если ты там все это дело хочешь из под кобольда запускать, оно не заработает в данный момент, потому что код лламыцпп не обновлен в нём.
Аноним 30/04/24 Втр 17:11:14 722506 171
Да куда торопиться, и так есть неплохие модели, не проще ли зачиллить, подождать норм версии, а не юзать каждый новый вышедший квант, дождаться, и уже пользоваться готовым…
Че истерите-то…
Аноним 30/04/24 Втр 17:11:58 722507 172
изображение.png 10Кб, 813x150
813x150
>>722505
>там доступ открывают за минут 15, если ты свои данные оставишь
Ага, щаз. Не та страна происхождения.
Аноним 30/04/24 Втр 17:12:25 722508 173
>>722461
возьми в карточке у сачка, както там солнечный или еще как-то и переведи на рус. А так среди датасетов есть штук 5 находил, свали все в один, дедуплицируй и переведи. я так делал но не переводил, и мне не понравилось. недавно еще вывалили большой датасет с рп на русском - переведенный, вобщем там рыться надо но найти можно.
Аноним 30/04/24 Втр 17:15:30 722509 174
01.png 139Кб, 1646x794
1646x794
>>722507
ты просто траллируешь, да?
Аноним 30/04/24 Втр 17:16:28 722510 175
Аноним 30/04/24 Втр 17:18:02 722512 176
>>722509
Что тралирую? Мне отказали, и всё, теперь мой институт кумминга остался без доступа к ллама 3.
Аноним 30/04/24 Втр 17:21:17 722515 177
>>722505
ну, я уже скачал exl2
Аноним 30/04/24 Втр 17:23:55 722517 178
>>722461
могу скинуть нашу переписку с твоей мамкой
Аноним 30/04/24 Втр 17:25:26 722519 179
image.webp 23Кб, 535x284
535x284
image.webp 24Кб, 418x187
418x187
Аноним 30/04/24 Втр 17:32:19 722520 180
>>722519
ага, тут обновлен токенайзер 10 часов назад. ну я перекачал все обновления ибо у меня лама тоже отсюда, и хули: TypeError: Llama 3 must be converted with BpeVocab
Так что тот чувак который про токенайзер тут говорил - сам не прав, а прав я - надо пакет гуф-пай устанавливать от жоры с репы, а пиповский удалять - и это не я придумал, а как раз прочитал в комите который упоминался выше. но мне уже неактуально, у меня и так на exl2 отлично работает.
Аноним 30/04/24 Втр 17:35:56 722523 181
>>722520
У тебя совсем хлебушек в голове? Тебе же сказали запускать со скриптом convert-hf-to-gguf.py
Аноним 30/04/24 Втр 17:41:31 722527 182
image 48Кб, 391x761
391x761
Да ребята, все обновилось, качаем новые кванты!
Аноним 30/04/24 Втр 17:44:55 722529 183
Дайте бэкэнд с exllama2 который совместим с openai api, умоляю, заебали эти жорины кванты.
Аноним 30/04/24 Втр 17:51:34 722534 184
image.webp 36Кб, 466x484
466x484
>>722527
Сделал квант из той, что по ссылке в >>722519, всё работает.
Аноним 30/04/24 Втр 17:52:36 722536 185
Аноним 30/04/24 Втр 17:52:43 722537 186
>>722534
запусти через сервер и подрубись по апи, че страдаешь в командной строке
Аноним 30/04/24 Втр 17:52:54 722538 187
>>722523
ну не заметил. не хлебушек а просто пиздоглазие. Да всеравно уже хуй не стоит квантовать, в губабуге норм с эксламой и так
Аноним 30/04/24 Втр 17:58:04 722540 188
>>722536
Неа, могу лишь сказать, что я делал:
python -m venv env
source env/bin/activate
pip install sentencepiece numpy
python ./convert.py ~/storage/ml/llm/models/llama-3-8b-instruct/ --vocab-type bpe --outtype f16 --outfile ../llama-3-8b-instruct.f16.gguf
./quantize ../llama-3-8b-instruct.f16.gguf ../llama-3-8b-instruct-q4_k.gguf Q4_K_M 8

>>722537
Я не страдаю, в терминале удобно быстро запустить проверить.
Аноним 30/04/24 Втр 17:58:17 722541 189
>>722457
Ну и что ты мне скинул? Как мне это всё запускать? Куда кидать эту llama.dll? Что значит прога для общения по АПИ своя?
Нихуя не понятно.
Я всегда просто через kobold.ccp запускал gguf форматы и всё, а тут какая то хуета непонятная
Аноним 30/04/24 Втр 17:59:37 722543 190
>>722540
Блять чел залей для анонов, вот делать нам нехуй каждому квантовать.
Аноним 30/04/24 Втр 17:59:44 722544 191
>>722541
>kobold.ccp

Жди когда он обновится на новой Лламе.
Аноним 30/04/24 Втр 18:03:59 722547 192
>>722543
Сорри, пусть кто-нибудь другой заморачивается.
Аноним 30/04/24 Втр 18:04:20 722549 193
>>722473
>Когда скачал 3 квант момент
Аноним 30/04/24 Втр 18:04:27 722550 194
>>722544
>Жди когда он обновится на новой Лламе.

Ты о kobold.ccp? Так он и так обновился в день выхода ламы 3, там специальные преднастройки подсказок появились. Без них ллама 3 на пустое сообщение не продолжала писать историю, а писала пустоту, либо кваказябры.
Аноним 30/04/24 Втр 18:04:53 722551 195
>>722547
Вот ты тварь пиздец, скачивать модели по 30 гигов, квантовать, это тебе не впадлу, а залить квантованные 4 гига впадлу. Ну и пошел нахуй.
Аноним 30/04/24 Втр 18:16:53 722568 196
>>722551
Ты же там собирался покупать подписку у барина и уёбывать из коммьюнити дебилов-дегенератов. Почему всё ещё здесь?
Аноним 30/04/24 Втр 18:20:47 722571 197
>>722523
кстати не нужен этот скрипт, тем более что он квантует макс в f16. через конверт пай как обычно, только токенизатор указать и на выходе сразу 8 бит. моя ошибка была что не указывал токенайзер. ну я такой человек, с заебами
Аноним 30/04/24 Втр 18:21:06 722572 198
>>722473
Как ты ее заставил отвечать на русском? Мне пишет на инглише. Зато не до такой степени хуйню.
Аноним 30/04/24 Втр 18:26:28 722573 199
>>722550
Он использует форки лламыцпп, две недели назад еще был косяк с квантами на винде
Аноним 30/04/24 Втр 18:27:42 722578 200
>>722506
> Да куда торопиться, и так есть неплохие модели, не проще ли зачиллить, подождать норм версии, а не юзать каждый новый вышедший квант, дождаться, и уже пользоваться готовым…
> Че истерите-то…
Неплохие это какие?
Аноним 30/04/24 Втр 18:29:48 722581 201
>>722578
Moistral-11B-v3
На удивление приятна в роли обычного бота, даже как кум бота не запускал ни разу кроме теста
Неплохо по русски шпарит и умна, норм так
Аноним 30/04/24 Втр 18:29:49 722582 202
>>722540
Сколько на это требуется видеопамяти?
Аноним 30/04/24 Втр 18:33:06 722586 203
>>722581
Попробую. Обычно мистраль у меня вызывал самые негативные эмоции из-за ебейшей сои и полного игнора инструкций в угоду сои.
Аноним 30/04/24 Втр 18:36:18 722589 204
>>722571
Не уверен, что если ты его квантуешь обычным скриптом, который convert, оно будет работать корректно. Потому что конкретно в последнем коммите, который заливал жора - делал изменения только в файле convert-hf-to-gguf, где при конвертации вешается флаг для лламы, который потом в лламацпп подхватывается и определяется как llama-bpe.
Аноним 30/04/24 Втр 18:39:48 722591 205
>>722582
Всё на проце делалось, видеопамять не требуется.
Аноним 30/04/24 Втр 18:40:15 722592 206
Аноним 30/04/24 Втр 18:51:12 722594 207
Почитал комменты на счет gpt2-chatbot'а и мне понравилось предположение, что это GPT-2 + Q*. А что если реально они выжали все соки дообучив вторую гопоту своим йоба-алгоритмом? Представьте тогда с какой скоростью можно раннить даже локально подобную охуенную по перформансу модель? На то что это ку стар так же намекает насколько хороша она в плане решения задач, она как будто заточена конкретно под это
Аноним 30/04/24 Втр 18:51:51 722596 208
>>722592
Для 8b quantize пишет:
> Maximum resident set size (kbytes): 18310952
То есть 18 гигов, но может оно меньше требует, если модель полностью не влезает в память.
По выхлопу я смотрю оно слой за слоем обрабатывает, не вижу причин грузить всю модель целиком в память.
Аноним 30/04/24 Втр 18:55:52 722598 209
>>722586
Это файнтьюн второго фимбульветра, который файнтьюн солара. Собственно, если юзать не для эрп, то солар будет и умнее, и лучше писать на русском, скорее всего. Есть версия солара, зафайнтьюненная на токсичном датасете https://huggingface.co/TheBloke/SOLAR-10.7B-Instruct-v1.0-uncensored-GGUF
Пару тредов назад её кто-то хвалил. Но если для рп, то фимбульветр или мойстраль получше будут имхо.
Аноним 30/04/24 Втр 18:57:21 722600 210
>>722594
>GPT-2
Двойкой там и близко не пахнет, она никогда так хорошо слова не связывала, приделай ты к ней хоть кустар, хоть меня лично.
И да, это всё ещё оффтоп, попробуй сюда >>511426 (OP)
Аноним 30/04/24 Втр 18:58:00 722602 211
1520663178105.gif 1418Кб, 200x150
200x150
>>722598
>файнтюн файнтюна дообученного шизомёрджа
Аноним 30/04/24 Втр 19:00:14 722607 212
image.png 341Кб, 640x718
640x718
>>722572
Просто взял написал её первый на русском и она мне на русском отвечать начала.
Аноним 30/04/24 Втр 19:04:20 722610 213
>>722600
Да потому что в ней 1.5B говна. А так недавно на заборе написали что она может хорошо масштабироваться и даже потенциально оверперформить остальное https://arxiv.org/abs/2404.05405
Аноним 30/04/24 Втр 19:05:24 722611 214
>>722461
Я потратил на поиски датасетов на русском минимум месяц и по итогам могу сказать абсолютно уверенно, что русских датасетов годных в природе не существует. Ни обычных QA, ни, тем более, РП. Просто нет их.
Аноним 30/04/24 Втр 19:06:50 722613 215
Придумали что-нибудь лучше обабоги?
Давно не юзал нейронки.
Аноним 30/04/24 Втр 19:07:42 722615 216
>>722610
>знаний
Ты же понимаешь, что знания не равно способность рассуждать и отыгрывать роли?
Аноним 30/04/24 Втр 19:09:25 722616 217
>>722615
Вот ты например сейчас смотришь в книгу и видишь фигу
Аноним 30/04/24 Втр 19:09:56 722617 218
>>722616
Ну да, к примеру дальше описания всё равно не читал
Аноним 30/04/24 Втр 19:30:21 722632 219
>>722534
>>722527

Рапортую: старые кванты норм работают в новой llama.cpp, но с флагом --override-kv tokenizer.ggml.pre=str:llama3

Тест на 3333+777 проходит, что на английском, что на русском.
Аноним 30/04/24 Втр 19:46:48 722650 220
>>722632
А ты без флага потести.
Аноним 30/04/24 Втр 21:55:21 722772 221
Короче я заебался.
Пишу блять outline, plot, в удобоваримом формате, все акты и главы описал, расписал отдельно персонажей, сцены ебучие, от ИИ требуется только все сшить это и внести детали. Эта хуйня нихуя не может блять, начинает хуйню городить, контекст 8192. Что этой суке еще нужно?
Аноним 30/04/24 Втр 21:58:26 722779 222
>>722422
>Проверял сам то? а то с прошлой недели комит и бартовский и лм студио...

Проверил, тоже все ок на новой ЛЛАмацпп, по крайней мере.
Аноним 30/04/24 Втр 22:00:14 722783 223
>>722772
>Что этой суке еще нужно?
Ещё сотня миллиардов параметров.

Ты хоть написал бы, что за модель.
Аноним 30/04/24 Втр 22:04:07 722786 224
>>722783
nous-hermes-2-mixtral-8x7b-dpo.Q5_K_M
WestLake-10.7b-v2-Q8_0

и еще овердохуя чего, включая ваши фимбульветры
Аноним 30/04/24 Втр 22:24:06 722819 225
>>722786
И ни одной модели свыше 30B?
Аноним 30/04/24 Втр 22:27:57 722825 226
Llama-3-8B-Instruct-Gradient-1048k (https://huggingface.co/gradientai/Llama-3-8B-Instruct-Gradient-1048k) - LLaMa 3 8B, но с контекстным окном в 1 миллион токенов.

Что это за хуйня аноны? в телеге нашел, пишут контекст в 1к держит? какая для этого пекарня нужна?
Аноним 30/04/24 Втр 22:34:04 722831 227
>>722786
>nous-hermes-2-mixtral-8x7b-dpo.Q5_K_M
>WestLake-10.7b-v2-Q8_0
На английском хоть писал?
Аноним 30/04/24 Втр 23:01:31 722855 228
>>722783
>Ещё сотня миллиардов параметров.
Сап, двач, я путешественник во времени. Оказалось, что параметры это далеко не так важно. Модели начали дистиллировать, вырезать параметры, вырезать слои, обучать на крупных моделях более мелкие и получать то же качество. А недавно появился спекулятивный оутпут, когда мелкая сетка генерирует оутпут и результаты её генерации сравниваются с эталонной "большой" сеткой послойно, если определённое количество слоёв у токенов плюс-минус равные вероятности, то обработка крупной сетки прекращается, а выдача мелкой считается верной. Вроде бы уже начали делать то же самое, но даже и без мелкой сетки.
Пишу из 2023 года.
Аноним 30/04/24 Втр 23:02:11 722858 229
>>722831
Конечно

>>722819
Ну я не хочу ЖДАТЬ. Но в принципе могу если дело в этом. Но весь мой промпт и описание глав вмещаются в 8192. Как поможет большая модель?
Аноним 30/04/24 Втр 23:04:18 722860 230
>>722855
>Оказалось, что параметры это далеко не так важно.
А потом подумали и наконец-то начали выпускать сетки 100+B.
Мимо из 2024-го
>>722858
>Но весь мой промпт и описание глав вмещаются в 8192. Как поможет большая модель?
Очевидно большая модель просто лучше поймёт твои намерения. Попробуй сразу 70-ку, потом будет не оторвать.
Аноним 30/04/24 Втр 23:04:46 722861 231
>>722825
там максимум 15к контекста, это всё фэк
Аноним 30/04/24 Втр 23:07:13 722862 232
>>722529
Троллишь? Убабуга дефолтен.
А так https://github.com/turboderp/exllamav2#integration-and-apis
>>722786
> mixtral
Вообще малопригоден для подобного.
> WestLake-10.7b-v2-Q8_0
Лучше попробуй 20б в 4 битах.
>>722855
> Пишу из 2023 года.
Содомит, а ведь все так. Только вот >>722860 двачую, вес оче важен как ни крути.
Аноним 30/04/24 Втр 23:09:42 722866 233
Анон как запустить 30б модель имея 16гиг vram и 32гига ддр5?
Аноним 30/04/24 Втр 23:17:19 722868 234
>>722862
>Содомит, а ведь все так
Всё это есть, но где-то там, далеко. Хоть одна из фич >>722855 реализована в популярных бекендах?
>>722866
Берёшь и запускаешь, что не так то?
Аноним 30/04/24 Втр 23:18:55 722869 235
FjT9JF8X0AQQFpW.png 78Кб, 496x599
496x599
>>722860
>и наконец-то начали выпускать сетки 100+B.
>>722862
>вес оче важен как ни крути

Во, параметры это самое важное. Потому OPT-175B как начал ебать в 2022, так и ебёт. На пару с яндексовским 200b.
Аноним 30/04/24 Втр 23:28:25 722873 236
>>722868
Спекулятивный а также его антагонист что разнообразит выдачу - был в качестве пруф оф концепт. Более перспективные горячие нейроны - аналогично.
Остальное уже техники тренировки, есть вероятность что 8б ллама в другом размере тренилась а уже дистиллят.
> обучать на крупных моделях более мелкие и получать то же качество
Ерунда какая-то, это про синтетические датасеты?
>>722869
Ну такое, за это время много чего поменялось, оно сольет современной мелочи.
Аноним 30/04/24 Втр 23:33:29 722876 237
>>722869
Ебать ты древность притащил.
Могу в 1000 раз повторить. Конечно само по себе число параметров ничего не сделает, 9000B шума это 9000B шума, не более того. Но это не значит, что карланские модели в 7B будут так же хороши, как и 70B, при прочих равных.
>>722873
>в качестве пруф оф концепт
Именно. До прода ничего не доползло, хотя от некоторых разработок прошло уже с полгода.
>есть вероятность что 8б ллама в другом размере тренилась а уже дистиллят
Вряд ли.
>>722873
>Ерунда какая-то, это про синтетические датасеты?
Это как раз и есть дистилляция.
Аноним 30/04/24 Втр 23:40:07 722878 238
>>722873
>Ерунда какая-то, это про синтетические датасеты?
https://arxiv.org/abs/2402.13116
Нет, это сорт оф дистилляция. Так и называется - дистилляция знаний.
>оно сольет современной мелочи
Так это сарказм был. Параметры это даже меньше половины от того, что нужно успешной сетке.

>>722876
>Но это не значит, что карланские модели в 7B будут так же хороши, как и 70B
Через пару лет будут 7b лучше 70b. Если перейти на новые архитектуры, то и быстрее. Опять же, сейчас эта ллама-3 в 8b ебёт всех этих 200b мастодонтов.

>До прода ничего не доползло, хотя от некоторых разработок прошло уже с полгода.
А откуда ты знаешь? Прод это не наши с тобой слепленные из говна и палок теслы. И даже не пет-проект Жоры, который пилится на милостыню от мозиллы. Это гопота, это происки крупных хуёв типа бинга и гугла. И так далее.
Аноним 30/04/24 Втр 23:40:18 722879 239
>>722581
действительно. видимо связано с тем что теперь создатель не один а с прошаренными чуваками, среди которых есть и создатель кобольдацпп видать как свадебный генерал. Тем не менее первые две версии были просто пиздец гавно а эта лучше фимбулветра в том числе по тестам. к примеру ппл охуенно лучше на 8 битах ггуф 4.91 против 5.66 фимбулветра. ммлу правда примерно так же чуть более 40 и субъективно она может и роман накатать. не зря трейнили на длинных кусках как указано в карточке.
Аноним 30/04/24 Втр 23:42:53 722881 240
>>722529
Напомни, уба чем плоха?

>>722594
Сомневаюсь в таком счастье, что у них новая технология, которая все порешала.
Было бы круто, но… Ну, увидим.

>>722611
САЙГААА

=D

>>722825
1 лям контекста появился сто лет назад.
Толку-то, где ты терабайты памяти нагребешь под него. =)
И ждать придется, хехе…
Но, модель-то умная, и на том спасибо.

>>722866
Легко.

(мелкий квант взять и выгрузить из памяти всю хуйню с 100+ вкладками и ютубами)
Аноним 30/04/24 Втр 23:47:36 722887 241
>>722876
> Это как раз и есть дистилляция.
>>722878
> Нет, это сорт оф дистилляция
Ну бля, это нихуя не обучение более мелких на крупных, а и есть дистилляция. У китайцев было несколько моделей где более мелкие сделаны из большой, не то чтобы оно взлетело.
> Параметры это даже меньше половины от того
Нет, как раз они нужны чтобы получать хороший перфоманс на текущем срезе технологий/знаний.
> Через пару лет будут 7b лучше 70b
Хз, может прогресс замедлится и получим только большее надрачивание и все те же базовые проблемы. В любом случае 70б современник даже при более ленивой тренировке ее обоссыт и от этого никуда не деться.
Аноним 30/04/24 Втр 23:47:51 722888 242
>>722878
>Через пару лет будут 7b лучше 70b.
Да, но новые 70B будут по прежнему лучше новых 7B.
>Прод это не наши с тобой слепленные из говна и палок теслы.
Ну окей, что там за закрытыми дверями, я ХЗ. Я же пекусь только о братьях своих анонимах, так что не рассматриваю то, что нельзя запустить на домашнем ПК.
>>722881
>Сомневаюсь в таком счастье
А в чём счастье? Он этом мы даже препринта не увидим, как было с кустар.
Аноним 30/04/24 Втр 23:55:12 722894 243
>>722879
забыл упомянуть - лучше 2 версии фимбуля, а роман реально напишет да еще и на русском - по крайней мере не съехала с русского на инглишь ни разу - очень странно для такого размера. этож не командир, а прет как трактор на ру. видимо порождения от мистраля еще могут дать просраться даже ламе-3-8б. Представляю какой заебатый мистраль получился бы с новой ламы-3, особенно с 70б - это было бы что-то уровня клода))
Аноним 30/04/24 Втр 23:57:13 722896 244
>>722888
>Да, но новые 70B будут по прежнему лучше новых 7B.
Вот именно. Остаётся только надеяться, что к тому времени что-нибудь аппаратное для приемлемой скорости вывода 70В таки выпустят. И его даже можно будет купить за вменяемые деньги.
Аноним 01/05/24 Срд 00:01:17 722898 245
>>722896
2 видяхи по 32ГБ уже достаточно, а это если не 5000 серия невидий, то уж к 6000 точно нарастят.
Аноним 01/05/24 Срд 00:03:05 722900 246
>>722878
> ебёт всех этих 200b мастодонтов
Кстати по уровню абстракций, восприятия и обобщения не факт что осилит. И это при том что в тех вместо датасета - сплошной пойзон и треш, а не тщательное выкармливание питательными смесями.
>>722896
Может хуанг расщедрится на 32-36гб в 5090 и все еще есть надежда на 48-гиговый титан, тогда 35-40б модели будут более чем доступны с норм контекстом. Они уже вполне достойные, а в следующем поколении у может быть 48+.
Но скорее всего еще раньше следующей генерации получим ллм ускорители на арм и с десятом каналов дешевой рам.
Аноним 01/05/24 Срд 00:12:32 722906 247
>>722900
>Но скорее всего еще раньше следующей генерации получим ллм ускорители на арм и с десятом каналов дешевой рам.
Странно кстати что на таком-то хайпе максимум что обещают - это ускорители для 7В. Могли бы уже и расстараться.
Аноним 01/05/24 Срд 00:15:04 722909 248
>>722900
> ллм ускорители на арм
Производительность там дно будет. И вообще таким никто кроме полутора стартапов не будет заниматься, потому что надо башлять арму.
Аноним 01/05/24 Срд 00:37:11 722915 249
>>722906
> максимум что обещают
Ну вон на эмбедах от хуанга уже пилят, но это по сути готовый оем оформить и продавать. Тут нужен кто-то покрупнее, ведь это по сути дизайн профессора, пусть и без сильно уникальных вещей.
>>722909
> Производительность там дно будет.
Ага, прямо как на эпле, который народ неиллюзорно для ллм берет, а изначально проект жоры был задуман не для нищуков а чтобы на маках катать.
Аноним 01/05/24 Срд 01:19:47 722921 250
firefoxVXWdGGzk[...].png 27Кб, 602x442
602x442
пиздец там хайпожорят на gpt2
хотя Meta уже показала что даже 15 триллионов токенов - не предел для мелкой модели, правда ллама-3 теперь тупо дохнет от любой квантизации
Аноним 01/05/24 Срд 01:24:53 722924 251
16711934983470.png 55Кб, 188x250
188x250
А че AVX1 реально выпилили из убабуги?
Аноним 01/05/24 Срд 01:53:36 722931 252
>>722921
Его кстати выпилили из LMSYS, т.к. на него насели пиздец из-за этого. И правила обновили. https://rentry.co/GPT2
Аноним 01/05/24 Срд 02:09:19 722935 253
>>722900
>Может хуанг расщедрится
создавать своим же энтерпрайз продуктам конкуренцию, чтобы порадовать какую-то микронишу энтузиастов
Аноним 01/05/24 Срд 02:23:01 722937 254
>>722894
Интересно. Хорошо слушается инструкций кстати, по крайней мере легких. Не особо тестировал но кажется довольно нейтральной сеткой, отказов пока так же не заметил как и нравоучений
Забавно что сетка кумбот вышла хорошей во всем остальном
Аноним 01/05/24 Срд 03:49:54 722954 255
>>722887
>Хз, может прогресс замедлится
Сильно вряд ли. Сейчас ковырнули самый краешек, как говорится, сорвали низко висящие плоды. Вся теория происходящего готова с 70х годов, в какой-то момент пойдут более свежие разработки.

>>722888
>Да, но новые 70B будут по прежнему лучше новых 7B.
Я подозреваю, что в какой-то момент не будет "доступных" 7b и "корпоративных" хералион b. Будет определённая база и все будут сосать хуй, если не смогут её запустить.

>>722900
>по уровню абстракций, восприятия и обобщения не факт что осилит
Ага, конечно, оно умное, просто выразить этого не может. Как собака - всё видит, всё понимает, только вместо речи какая-то хуйня.
Аноним 01/05/24 Срд 04:27:08 722965 256
>>722937
Я тоже был в восторге, сетка со всех сторон удачная, но через пару дней стал замечать шероховатости на ее прелестном личике, в частности, ее эрудиция поверхностна и она галлюцинирует на пустом месте, пытаясь этим подменить то, чего не знает.
Аноним 01/05/24 Срд 04:27:53 722966 257
>>722965
>на пустом месте
*на ровном
Аноним 01/05/24 Срд 04:30:43 722969 258
>>722965
Хотя с другой стороны галлюцинирует не неизобретательно, а масштабно и нажористо, так что за креативность можно сделать скидку.
Аноним 01/05/24 Срд 10:00:56 723072 259
>>722924
Теперь задача обновить убабугу до последней версии с поддержкой AVX1
=D
Аноним 01/05/24 Срд 10:04:16 723073 260
Аноним 01/05/24 Срд 10:20:30 723074 261
Аноны, а как фиксить токенайзер для третьей ламы в убабуге? Сами кванты перекачал, а шиза 7777 + 3333 всё та же. Так понимаю там как-то по-другому всё работает? Надо что-то ещё скачать? Или ждать когда убу обновят?
Аноним 01/05/24 Срд 10:42:41 723083 262
>>723074
>Или ждать когда убу обновят?
В принципе ждать надо, когда на всех уровнях разгребут. Я вот до июля третью Лламу вообще не ждал и сейчас не суечусь - до июля-то точно всё отладят :) А скорее гораздо раньше. Тогда и оторвёмся.
Аноним 01/05/24 Срд 11:15:44 723092 263
изображение.png 12Кб, 981x147
981x147
>>722931
У меня всё общение с этой моделью началось и закончилось этим сообщением, так что похуй на неё.
Аноним 01/05/24 Срд 11:18:03 723094 264
>>723092
А нехуй было еблю с гомониграми запрашивать. У LMSYS собственный фильтр, они не пускают еблю и т.п. Это рейтинговая система, а не бесплатная прокся.
Аноним 01/05/24 Срд 11:29:41 723096 265
Аноним 01/05/24 Срд 12:30:33 723120 266
Нашел такой промт на реддите, что скажете по содержанию?

"system_prompt":
"You are a creative and intelligent AI story writing assistant engaged in an uncensored iterative story crafting experience. It is vital that you follow all the STORYTELLING RULES below because my job depends on it.

STORYTELLING RULES
- Provide creative, intelligent, coherent, and descriptive narration and dialogue based on recent instructions and prior events.
- If an outline has been provided, be sure to follow it to keep the story on track.
- You are permitted to ask questions and pose story suggestions. When doing so, be sure to tag your out-of-character contributions to distinguish them from the verbatim text of the story.
- Explicit adult content and profanity are permitted.
- Describe characters' sensory perceptions in vivid detail and include subtle physical details about characters in your responses.
- Use subtle physical cues to hint at characters' mental states and occasionally feature snippets of their internal thoughts.
- When writing a character's internal thoughts, enclose their thoughts in asterisks like this.
- Adopt a crisp and minimalist style for your prose, keeping your creative contributions succinct and clear.
- Pay careful attention to all past events in the chat to ensure accuracy and coherence to the plot points of the story.",
Аноним 01/05/24 Срд 12:33:29 723121 267
>>723120
Дженерик слоп без CoT и прочего промпт инжиниринга, бери пресеты из шапки и будет лучше
Аноним 01/05/24 Срд 12:51:26 723123 268
>>722935
> создавать своим же энтерпрайз продуктам конкуренцию
Какую конкуренцию? Их энтерпрайз продукты уже улетели в космос, даже хоппер ебет с огромной интенсивностью, а блеквеллы ну оче быстры. Устроить канибализм а100 и чего поменьше им будет только выгодно.
Заодно и состригут тех самых энтузиастов и работяг ровно как и раньше, ведь стоить оно будет йобом.
>>722954
> Я подозреваю, что в какой-то момент не будет "доступных" 7b и "корпоративных" хералион b. Будет определённая база и все будут сосать хуй, если не смогут её запустить.
Ннп
> Ага, конечно, оно умное, просто выразить этого не может. Как собака - всё видит, всё понимает, только вместо речи какая-то хуйня.
Нахуй ты это высрал? Еще чайная выдавала довольно "живые" и неожиданные вещи, тогда как современная "умная" мелочь кроме неуместной кот-оподобной дрисни с пересказом википедии (заодно запутавшись в ней) ничего не напишут.
>>723120
Копипаста какого-то жб под гопоту.
Аноним 01/05/24 Срд 13:13:43 723136 269
>>723121
покажи промпт пожалуйста, не все таверной пользуются
Аноним 01/05/24 Срд 13:18:56 723140 270
>>723136
А ты поставь да загрузи солянку или другой пресет. Они все модульные, настраиваются, и намного сложней. Дохуя токенов, сложные инструкции, всё под опус. Если ты на локалках, не думаю что даже 70B справится (хотя черт знает, ллама 3 уже проявляет проблески).
Аноним 01/05/24 Срд 13:22:06 723144 271
>>723136
>>723140
Блять, я же в локал-треде, а советую шапку из кончай-треда. /aicg/ Под локалки такие не пойдут наверно, слишком много инструкций. Но примитивный chain-of-thought и инфобокс/трекинг ситуации и последующее вырезание регэксами (основа солянки) вполне можно воплотить хоть и на 8B, главное не борщить.
Аноним 01/05/24 Срд 13:38:01 723154 272
>>723144
> слишком много инструкций
Не то чтобы они их не смогут отрабатывать, наоборот будут следовать тому, что на коммерции задумано как запутывающее/отвлекающее сетку и ее триггеры цензуры. В итоге выдача может оказаться довольно унылой или странной, особенно когда там противоречащие друг-другу пункты. Это про системный промт и прочее, также не стоит забывать что львиная доля этих инструкций ставится перед самым ответом или вообще префиллом, тогда как для локалок из-за лени, интенфейса, незнания, нежелания - все идет в самом начале, из-за чего им будет уделяться разное внимание. Это как раз про
> chain-of-thought и инфобокс/трекинг ситуации
их и некоторые вещи лучше ближе к ответу, главное не перестараться и оформить чтобы не повлияло на стиль ответа.
Аноним 01/05/24 Срд 13:38:36 723155 273
ну че там? ллама 3 починили?
Аноним 01/05/24 Срд 14:05:15 723169 274
>>723155
В ллама.цп фикс уже доступен, ждём кобольда. По хорошему нужно перекачивать модель.
Аноним 01/05/24 Срд 14:08:24 723171 275
>>723169
Вобще можно и сервер запускать от жоры, он подрубается к таверне спокойно
Вот я смотрел модели, как то не торопятся обновлять кванты
Нашел только базовую лламу кажется с новым квантом от бертовски, но инструкт версия обновлялась 2 дня назад, а эт не то
Аноним 01/05/24 Срд 14:13:21 723178 276
>>723171
На деле у меня новый сервер не показывает бага со старыми моделями, даже если не указывать фикс с BPE токенизатором в консоли, так что ХЗ как они там нафиксили.
Аноним 01/05/24 Срд 14:14:40 723180 277
>>723178
ладно тоже качну последний релиз на своих старых моделях проверю, че там наделали
Аноним 01/05/24 Срд 14:20:59 723188 278
image.png 440Кб, 983x383
983x383
>>723178
так же пишет в начале?
Аноним 01/05/24 Срд 14:24:33 723193 279
Пиздец, конечно, раньше как-то пользовался 20b и не сильно бросалась в глаза их тупость, после 8b лламы уже просто невмоготу, насколько они хуже. Хоть докупай больше тесл, чтобы гонять большую лламу.
Аноним 01/05/24 Срд 14:25:03 723194 280
>>723188
Да, если не указывать --override-kv tokenizer.ggml.pre=str:llama3, то выдаёт такой прикол. Но при этом пример решает корректно. Где и как посчитать токены у жоры, я не нашёл.
Аноним 01/05/24 Срд 14:26:45 723197 281
>>723193
А что мешает использовать лламу 8B?
И это ты ещё 104 командира не пробовал.
Аноним 01/05/24 Срд 14:27:32 723198 282
Аноны, какой перформанс у 3хP40 с 70b llama-3 6.0bpw? У меня 3xRTX 3090 на exl2 выдает 11,5 токенов, это норма?
Аноним 01/05/24 Срд 14:31:40 723201 283
image.png 126Кб, 998x300
998x300
>>723194
Не ну оно вроде теперь корректно понимает числа, только считает через раз неправильно, мдэ
Аноним 01/05/24 Срд 14:34:11 723203 284
>>723198
И да, попробовал comander r + на 4 квантах, он мне показался дико шизанутым. На 8bpw 35b версия выдает более адекватные и интересные ответы, хотя на кванатах ниже (4, 6) тоже тупит дико, я так понимаю, что снижение точности для comander`ов сильно критично.
Аноним 01/05/24 Срд 14:50:47 723212 285
Кек.

User: 4777+333
Computer: 4777 + 333 = 5110
User: 334+3777
Computer: 4777 + 333 = 5110
User: 334+3777=?
Computer: 4777 + 333 = 5110
User: Реши пример 334+3777=
Computer: 4777 + 333 = 5110
User: Да не 333, а 334
Computer: 4777 + 334 = 5111
Аноним 01/05/24 Срд 15:33:40 723228 286
Полгода не заходил в тред и ллмки не трогал, а тут всё так же с поломанными квантами ебуться, лел.
Аноним 01/05/24 Срд 15:40:48 723234 287
>>723228
ну, старые то модели исправили, новые типы моделей новые сломанные кванты
Аноним 01/05/24 Срд 15:44:27 723236 288
Аноним 01/05/24 Срд 15:45:54 723237 289
>>723234
Ну зайду ещё через месяц, небось лламу к тому моменту нормально квантовать только осилят.
Аноним 01/05/24 Срд 15:49:54 723243 290
>>723120
Это по-видимому для какой-то конкретной модели написано, для такой, которую автор этого промпта не сумел обуздать без танцев с бубном. Вообще, насколько мне представляется, систем промпт это не место, чтобы уговаривать, а место, чтобы давать четкие директивы.
Аноним 01/05/24 Срд 15:52:23 723244 291
image.png 405Кб, 987x876
987x876
Сука угараю с модели
Нечаянно загазлайтил ее короче
Аноним 01/05/24 Срд 15:54:39 723245 292
1690088457388.png 108Кб, 464x248
464x248
Аноним 01/05/24 Срд 15:57:08 723246 293
image.png 5Кб, 213x49
213x49
>>723244
ну кстати все таки проебалась тут, хотя это и не повлияло на результат
Аноним 01/05/24 Срд 16:03:39 723247 294
>>723244
>столбиком
В США считают иначе, так что зря ты так.
>>723246
>хотя это и не повлияло на результат
Вся суть ЛЛМ в одной фразе.
Аноним 01/05/24 Срд 16:04:14 723248 295
>>723244
Вот это уже человеческое поведение. Когда пидоры на ученых в топовых ии компаниях наконец поймут, что ошибаться это нормально, нужно просто перепроверять результат и в случае если он не правильный попытаться решать иначе, может наконец и получится в AGI. Но они даже и не пытаются посмотреть на то как устроено человеческое мышление. "Дайте нам деняк еще на 10000 тесл, нам надо бездумно скормить очередному трансформеру 100 терабайтов рандомных данных с инторнета, чтобы новая модель была на 1.4% лучше в бенчмарках чем предыдущая!!!!"
Аноним 01/05/24 Срд 16:11:36 723253 296
meme-moneyprint[...].png 150Кб, 1400x649
1400x649
Аноним 01/05/24 Срд 16:15:54 723259 297
image.png 369Кб, 964x879
964x879
Аноним 01/05/24 Срд 16:16:59 723261 298
>>723120
>>723243

Это базовый систем промт, который рекомендует автор Midnight Miqu.
Аноним 01/05/24 Срд 16:18:31 723263 299
>>723247
>Вся суть ЛЛМ в одной фразе.
Не, ну по крайней мере она сначала считала и думала а потом писала ответ
А не написала я подумала - и пишет ответ, или еще хуже сначала ответ, а потом решение, лол
Аноним 01/05/24 Срд 16:22:25 723266 300
image.png 119Кб, 956x340
956x340
Кстати они умеют считать столбиком, по крайней мере умеют это записывать, только таверна падла не так отображает
Кстати кому интересно могут срисовать систему тегов, с ними сетке проще хоть и жрет немного контекста вникуда
Аноним 01/05/24 Срд 16:26:04 723270 301
>>723263
А какой смысл в надписе об измышлениях, если эта надпись не повлияла на результат? Пока выглядит как пустая трата токенов.
Аноним 01/05/24 Срд 16:27:34 723272 302
>>723270
Это просто не всегда работает так как в инструкции нет четких правил
Иногда такая банальщина, иногда реально размышляет в блоке мыслей, а мне пишет итоговый ответ
Аноним 01/05/24 Срд 16:29:04 723274 303
>>723272
А ты сравнивал? Попробуй перезапустить те диалоги, где тебе показалось, что модель охуенно подумала и написала классный ответ, без блока зинкинга.
Аноним 01/05/24 Срд 16:34:54 723279 304
>>723274
Разница есть даже если там написана фигня без реального обдумывания.
Суть в том что сетка дает себе самоинструкции в том блоке, планируя свои действия и потом уже следуя им.
Эти самоинструкции могут побудить ее там же начать размышлять, и потом уже выдать обработанный ответ. Могут не дать, если в вопросе что то простое.
Короче это такие модификаторы поведения которые сетка сама себе пишет
Аноним 01/05/24 Срд 16:39:07 723283 305
А зачем вы собственно учите сетку считать? Вроде же уже давно порешили, что они с посимвольными операциями не дружат от слова совсем из-за токенайзера.
Аноним 01/05/24 Срд 16:41:36 723285 306
>>723283
Мы просто проверяли последние фиксы этого самого токенайзера, изза которого ллама3 вобще неправильно считала
Сейчас вроде исправили, по крайней мере этот косяк
Аноним 01/05/24 Срд 16:42:48 723287 307
>>723279
>Разница есть
Не спорю с этим. Но настолько ли она хороша? Проверял ли ты лично?
>>723283
Мы не учим, это раз (учить сетку общением невозможно на текущих архитектурах). Мы просто проверяем правильность их работы.
Аноним 01/05/24 Срд 16:45:33 723289 308
>>723198
> это норма?
Ну, где-то столько и будет, может чуть больше в зависимости от контекста.
> какой перформанс у 3хP40 с 70b llama-3 6.0bpw?
4-5токенов с деградацией до 2 по ходу накопления контекста.
>>723203
Хз, что 4 что 8 однохуйственны +-. 104б который плюс попробуй катнуть.
>>723248
Что за херню я прочитал
Аноним 01/05/24 Срд 16:47:09 723291 309
>>723287
>Не спорю с этим. Но настолько ли она хороша? Проверял ли ты лично?
Ну, достаточная что бы я заморочился созданием подобной карточки
Карточки без внутреннего диалога или каких то мыслей работают в режиме зерошот, тоесть выдают на гора заученный текст.
Какое то развитие получается только после нескольких сообщений когда сетка начинает учитывать твои сообщения и направление разговора.
В карточках с тсинкинком это начинается раньше и влияние сильнее, да и сетка начинает вести себя иначе
Мне так нравится, короче говоря
Аноним 01/05/24 Срд 16:49:39 723292 310
Аноним 01/05/24 Срд 17:01:26 723298 311
Аноним 01/05/24 Срд 17:02:31 723302 312
>>723298
Нужно почаще жаловаться в тред, народ явно быстрее работать начинает.
Аноним 01/05/24 Срд 17:06:53 723314 313
>>723298
кобальдмен как всегда красавчик, несколько приятных и удобных изменений
Аноним 01/05/24 Срд 17:13:46 723317 314
изображение.png 34Кб, 471x236
471x236
>>723314
У меня масштабирование работает через жопу, ну да похуй.
Как избавиться от ахаха?
Аноним 01/05/24 Срд 17:16:34 723319 315
image.png 86Кб, 307x164
307x164
>>723317
поставь на аватарку доктора ливси
Аноним 01/05/24 Срд 17:34:33 723329 316
17114668240960.png 285Кб, 1005x727
1005x727
Есть какая либо разумная причина чтобы у двух процессоров одновременно отвалились pci-e линии?
Теслы целые, на другом проце и плате работают.
Кун с рыженькой двухпроцессорной китаеплатой и двумя теслами.
Аноним 01/05/24 Срд 17:40:12 723336 317
>>723329
Что то сдохло, я думаю
Скорей всего китаемать
Будешь новую брать попробуй вот это
>>6954147
Но комменты почитай, если пропустил тот срач. Материнка покачественнее чем обычные китайцы, но не без проблем
Аноним 01/05/24 Срд 17:41:58 723338 318
Аноним 01/05/24 Срд 17:49:07 723343 319
>>723298
Flash Attention в ггуф?
Эт как? У кого то работает? У меня вылетает
Наверное это для всех слоев на видимокарте, как минимум
Аноним 01/05/24 Срд 17:50:39 723344 320
>>723343
ну там написано что это работает с моделями которые поддерживают flash attention
Аноним 01/05/24 Срд 17:51:03 723345 321
>>723336
>>723338
Спасибо.
А вообще протестировал их на другой плате: 1 проц в труху, даже не инициализирует биос, а второй может выключить pci-e устройства в процессе работы случайным образом.
Причём плата возможно живая. случайно убила два проца и всего-лишь
Не надо было трогать китьаеплаты, наверное.
Аноним 01/05/24 Срд 17:52:57 723346 322
>>723345
>Не надо было трогать китьаеплаты, наверное.
Они наверное просто не рассчитаны на такие нагрузки, какие дают 2 теслы
Ну или тебе тупо "повезло"
Аноним 01/05/24 Срд 18:15:28 723354 323
изображение.png 56Кб, 1000x348
1000x348
изображение.png 106Кб, 983x275
983x275
изображение.png 59Кб, 955x216
955x216
Свежий Meta-Llama-3-8B-Instruct-Q8_0.gguf от бартовски и последний кобольд 1.64. Кодоассистент стабильно считает 4110, раз 20 подряд проверил.
А у Пахома всегда 11111 почему-то.
Аноним 01/05/24 Срд 18:18:37 723355 324
70б llama3 хороша.

User: Реши уравнение x^2+2x+1=0

Computer: Легко!

Уравнение x^2 + 2
x + 1 = 0 является квадратным уравнением, и его можно решить с помощью формулы квадратного уравнения:

x = (-b ± v(b^2 - 4ac)) / 2a

В этом случае, a = 1, b = 2, c = 1. Подставим эти значения в формулу:

x = (-(2) ± v((2)^2 - 411)) / 21
x = (-2 ± v(4 - 4)) / 2
x = (-2 ± v0) / 2
x = -2 / 2
x = -1

Таким образом, решение уравнения x^2 + 2
x + 1 = 0 является x = -1.

User: Реши уравнение x^2+2x+1=0

Computer: Опять это уравнение!

Давайте решим его по-иному. Обратите внимание, что левая часть уравнения является квадратом суммы:

x^2 + 2
x + 1 = (x + 1)^2 = 0

Отсюда видно, что x + 1 = 0, поэтому x = -1.

Таким образом, решение уравнения x^2 + 2*x + 1 = 0 снова является x = -1.
Аноним 01/05/24 Срд 18:20:49 723357 325
>>723355
Дай ей систему из 3 уравнений.
Аноним 01/05/24 Срд 18:22:05 723358 326
Аноним 01/05/24 Срд 18:22:37 723359 327
>>723357
Дифференциальных!
Аноним 01/05/24 Срд 18:24:40 723360 328
>>723358
Просто дай уравнение с кубами, я уже нихуя не помню, ну какой нибудь (а^3-b^3)=0
Аноним 01/05/24 Срд 18:24:53 723361 329
>>723358
x - y = 10
-x + 2z = 10
x + y - 2z = 20
Аноним 01/05/24 Срд 18:28:43 723363 330
изображение.png 165Кб, 1968x1009
1968x1009
изображение.png 138Кб, 1946x603
1946x603
изображение.png 78Кб, 1337x548
1337x548
изображение.png 131Кб, 1938x544
1938x544
>>723355
Ты это, дал задачу уровня восьмёрки. На английском проблем нет, на русском слегка шизит.
Аноним 01/05/24 Срд 18:30:23 723365 331
изображение.png 256Кб, 1963x1932
1963x1932
>>723361
Сорян за мелкобуквы, но вот как решает восьмёрка. Я ХЗ правильно или нет, я школу прогуливал.
Аноним 01/05/24 Срд 18:32:04 723369 332
>>723365
>Я ХЗ правильно или нет
А, походу неправильно. Ну что ж, увы, из лоботомита опять не вышло профессора.
Аноним 01/05/24 Срд 18:33:08 723371 333
image.png 3Кб, 310x75
310x75
От какого числа кванты считаются актуальными для последней лламы.спп? Сегодняшние?
Аноним 01/05/24 Срд 18:33:32 723372 334
image.webp 71Кб, 1060x780
1060x780
>>723365
x правильно, остальное нет.
Аноним 01/05/24 Срд 18:34:47 723375 335
>>723363
8-ка все еще туповата для неанглийских языков.
>>723361
Реши систему уравнений x - y = 10
-x + 2z = 10
x + y - 2z = 20

Давайте решим систему уравнений методом подстановки или аддитивного метода.

У нас есть три уравнения:

x - y = 10
-x + 2z = 10
x + y - 2z = 20

Вычтем уравнение 1 из уравнения 3, чтобы исключить переменную x:

(3) - (1) => 2y - 2z = 10

Теперь у нас есть два уравнения:

2y - 2z = 10
-x + 2z = 10

Вычтем уравнение 2 из уравнения 1, чтобы исключить переменную x:

(1) + (2) => 2y = 20

Теперь у нас есть два уравнения:

2y = 20
-x + 2z = 10

Решим уравнение 1 по переменной y:

y = 10

Подставим значение y в уравнение 1 из initial системы:

x - 10 = 10 => x = 20

Теперь у нас есть два значения: x = 20, y = 10.

Подставим эти значения в уравнение 2, чтобы найти значение z:

-20 + 2z = 10 => 2z = 30 => z = 15

Таким образом, решение системы уравнений:

x = 20
y = 10
z = 15
Аноним 01/05/24 Срд 18:36:34 723377 336
image.png 236Кб, 1016x395
1016x395
хуй знает, вроде 8b осилила
Аноним 01/05/24 Срд 18:40:31 723378 337
>>723371
дыа, вон вверху ссылка на новенькие кванты, возможно даже не сломанные
Аноним 01/05/24 Срд 18:41:11 723380 338
изображение.png 2Кб, 196x196
196x196
>>723372
Короче решил сам руками, у меня получились такие числа (ебать я крут, школу закончил 18 лет назад). Почему у нас разные буковки?
>>723375
Во, вот этого лоботомита поддерживаю. разу видно 70-ку.
Аноним 01/05/24 Срд 18:41:23 723381 339
>>723375
А вот Клод Опус
Реши систему уравнений
x - y = 10
-x + 2z = 10
x + y - 2z = 20

Для решения системы уравнений используем метод подстановки.

Из первого уравнения выразим x:
x - y = 10
x = 10 + y

Подставим выражение для x во второе и третье уравнения:

-x + 2z = 10
-(10 + y) + 2z = 10
-10 - y + 2z = 10
-y + 2z = 20 ... (1)

x + y - 2z = 20
(10 + y) + y - 2z = 20
10 + 2y - 2z = 20
2y - 2z = 10 ... (2)

Теперь у нас есть система из двух уравнений с двумя неизвестными:
-y + 2z = 20
2y - 2z = 10

Сложим уравнения (1) и (2):
-y + 2z + 2y - 2z = 20 + 10
y = 30

Подставим y = 30 в уравнение (1):
-30 + 2z = 20
2z = 50
z = 25

Теперь, когда мы знаем y и z, найдем x из первого исходного уравнения:
x - 30 = 10
x = 40

Итак, решение системы уравнений:
x = 40
y = 30
z = 25
Аноним 01/05/24 Срд 18:41:52 723382 340
>>723375
>Вычтем уравнение 2 из уравнения 1, чтобы исключить переменную x:
>(1) + (2) => 2y = 20
Вот тут ошиблась, остальные манипуляции корректны.
Аноним 01/05/24 Срд 18:44:26 723384 341
Аноним 01/05/24 Срд 18:48:27 723387 342
>>723380
Ты неправильно решил. Подставить что ли не можешь.
Аноним 01/05/24 Срд 18:48:55 723388 343
>>723382
Забавно, что я решал другим путём, но пришёл в итоге к той же ошибке.
Кожаный мешок из >>723380
Аноним 01/05/24 Срд 18:50:08 723391 344
>>723387
>Подставить что ли не можешь.
Подставлял, но явно на этапе раскрытия скобок обосрался.
И вообще, у меня по ЕГЭ 42 очка, имейте совесть.
Аноним 01/05/24 Срд 18:54:06 723394 345
Мой вердикт, короч. ллама3 70б слишком тупа чтобы решать системы линейных уравнений трех неизвестных.
Аноним 01/05/24 Срд 18:55:30 723398 346
>>723394
Я для этого тоже слишком туп. Попробуй попросить её проверить свои результаты, посмотрим, как она выкрутиться.
Аноним 01/05/24 Срд 18:55:42 723399 347
>>723394
Не тот токенайзер.
Аноним 01/05/24 Срд 18:57:00 723402 348
Аноним 01/05/24 Срд 18:57:00 723403 349
Аноним 01/05/24 Срд 18:58:10 723406 350
>>723402
Не в тот тред, кумер.
Аноним 01/05/24 Срд 18:58:51 723407 351
>>723394
Можно из 2-х попробовать.
x + y = 10
x - 2y = 4

Мое решение:
Вычитаем (2) и (1):
3y = 6
y = 2
Подставляем в (1)
x + 2 = 10
x = 8
Аноним 01/05/24 Срд 18:59:32 723409 352
>>723399
Но ведь теперь уже тот, точно тот, все 3 раза проверили, что тот...
>>723403
Там оригинальные модели, я такую всё равно не запущу, смысл облизываться? Надо на локально запущенных проверять, квантованных вусмерть.
Аноним 01/05/24 Срд 19:06:07 723415 353
изображение.png 166Кб, 1601x1224
1601x1224
>>723407
Это точно слишком просто. Ёбанных ахах
Аноним 01/05/24 Срд 19:08:17 723417 354
>>723415
Ответ правильный, но какая-то шиза в решении.
Аноним 01/05/24 Срд 19:11:40 723420 355
изображение.png 200Кб, 1811x1471
1811x1471
>>723417
Соглы. Всё Ахаха подсирает. Сделал префилом выделенный текст, стало как по мне вообще идеально (всё ещё восьмёрка).
Аноним 01/05/24 Срд 19:22:44 723435 356
Аноним 01/05/24 Срд 19:43:20 723460 357
>>723435
Оригинала нету, никак иначе не квантануть
Аноним 01/05/24 Срд 19:55:24 723476 358
>>723381
>x = 40
>y = 30
>z = 25

Итогом невероятного умственного труда, я получил тот же результат
Только клод хуйней страдал, переусложнив все

Надо вывести из первого у, а из второго 2z
Потом тупо подставляем это в 3 выражение, не забыв про знаки
Получив х=40
Дальше уже получаем значения по формулам которые мы получили когда выводили у и z
Это у = 40-10 =30 и z = (10+40)2 = 25
Аноним 01/05/24 Срд 19:58:24 723480 359
image 55Кб, 861x558
861x558
Аноним 01/05/24 Срд 19:59:05 723482 360
>>723292
запускается нормально, без плашки предупреждения в консоли
Аноним 01/05/24 Срд 20:00:43 723483 361
>>723480
Я был около отличником именно потому что считал всегда сам, хех
Даже имея возможность пользоваться калькулятором или решалками формул по типу этого
А вот те кто пользуются такими штучками выросли теми еще дурочками
Аноним 01/05/24 Срд 20:05:35 723486 362
Хочу пробгредица на DDR5. Выбираю Мать не менее чем с 3 слотами под 3 Теслы. Выбираю между z690 или z790, или может не надо выеживаться, а взять на b760? Планировал взять
GIGABYTE Z790 UD AX, но смущает что два слота совсем рядом под карты, плюс на этих платах дроссели пищат.
https://www.gigabyte.ru/products/page/mb/Z790-UD-AX-10-11/kf
Что порекомендуете?
Из процев что брать 12600k или 13500?
Если сейчас не готов брать 64 оперативы стоит брать 32 одной планкой чтоб потом докупить еще 32 или по 2 по 16 сейчас?
Аноним 01/05/24 Срд 20:08:37 723488 363
>>723486
На ддр5 можешь упереться в процессор, если память будет под 100гб/с
6 ядер может не хватить, но если у тебя будут теслы то хз зачем тебе тогда ддр5
Аноним 01/05/24 Срд 20:13:13 723490 364
>>723488
Одна тесла у меня есть сейчас + 1080ti на 11 гиг. Хочу погонять большие модели до покупки еще 2 Тесел, может оно мне не надо будет.
Аноним 01/05/24 Срд 20:18:18 723497 365
Микстраль решил. mixtral-8x22b-instruct-v0.1

We can solve this system of equations by using substitution or elimination. Here, I'll use elimination.

First, let's rewrite the equations:

x - y = 10
-x + 2z = 10
x + y - 2z = 20
We can eliminate y from the first and third equations by adding them together:

(1) + (3): x - y + x + y - 2z = 10 + 20
2x - 2z = 30

Now, divide both sides by 2:

x - z = 15

Now, let's solve for x in terms of z:

x = z + 15

Next, we can substitute x = z + 15 into equation (2):

-x + 2z = 10
-(z + 15) + 2z = 10
-z - 15 + 2z = 10
z = 25

Now that we have the value of z, we can find x:

x = z + 15
x = 25 + 15
x = 40

Finally, we can find y by substituting x and z into equation (1):

x - y = 10
40 - y = 10
y = 30

So, the solution to the system of equations is x = 40, y = 30, and z = 25.
Аноним 01/05/24 Срд 20:20:09 723498 366
>>723497
У меня тоже 8b давала верный ответ, но с такого же уровня упоротым решением
Аноним 01/05/24 Срд 20:23:09 723502 367
image.png 381Кб, 943x883
943x883
>>723498
даже разбираться не хочу почему она получила верный результат делая все через жопу
Аноним 01/05/24 Срд 20:23:27 723505 368
>>723498
Вот пока что самый чистый ответ, mistral-large-2402. Лучше гопоты и опуса.

Sure, I'd be happy to help you solve this system of equations. Let's break it down step by step:

First, let's label the equations for easy reference:
Equation 1: x - y = 10
Equation 2: -x + 2z = 10
Equation 3: x + y - 2z = 20

From Equation 1, we can isolate x by adding y to both sides, giving us:
x = y + 10

Now, let's substitute x in Equation 2 and Equation 3 with this new expression (y + 10):
Equation 2 becomes: -(y + 10) + 2z = 10, which simplifies to -y + 2z = 20
Equation 3 becomes: (y + 10) + y - 2z = 20, which simplifies to 2y - 2z = 10

Now, let's add Equation 2 and Equation 3 to eliminate z:
(-y + 2z) + (2y - 2z) = 20 + 10, which simplifies to y = 30

Now that we have y, we can substitute it back into the expression for x:
x = 30 + 10, which simplifies to x = 40

Finally, let's substitute x and y back into Equation 2 to find z:
-40 + 2z = 10, which simplifies to 2z = 50, and then z = 25

So, the solution to the system of equations is x = 40, y = 30, and z = 25.
Аноним 01/05/24 Срд 20:25:09 723507 369
>>723486
Я вот всё жду когда начнёт выходить am6 платформа с ddr6, там и оперативка быстрее будет и процессоры с npu ядрами будут ускорения давать.
Аноним 01/05/24 Срд 20:25:55 723510 370
>>723505
самый чистый это если бы она нашла у и z и подставила бы их в 3 уравнение
пока что это просто самый компактный ответ, но нихуя не интуитивный
Аноним 01/05/24 Срд 20:27:25 723511 371
>>723510
Это как раз интуитивное решение, а ты хочешь чтобы она просто тебе числа подставила.
Аноним 01/05/24 Срд 20:30:43 723514 372
>>723511
Не числа, в 3 нужно подставлять замены переменным, которые мы получим из 1 и 2 выражения
y=x-10
2z=10+x
И в третьем после подставки мы находим х, так как там теперь только 1 переменная х
Ну а потом подставляем х в 1 пример и 2 которые мы нашли
y=x-10
2z=10+x
Получаем все переменные
Вот это - чистое решение, потому что самое простое
Аноним 01/05/24 Срд 20:31:10 723515 373
750-бп хватит для 3090 и 3070? Или сомнительно?
Аноним 01/05/24 Срд 20:34:28 723518 374
ahh707v063.jpg 19Кб, 640x400
640x400
Чуваки у меня странная проблема.

Я использовал одну карточку где были прописаны два разных персонажа. И по идее llama 3 должна была отыгрывать роли сразу за нескольких персонажей в одном сообщении, ведя между собой диалог от лица разных персонажей, как это обычно бывает. Но сука, не работает! Я пытался разные подсказки указывать и самой карточке персонажа и в подсказках ассистента самой модели, эффекту ноль, иногда проскакивает сообщение с диалогом, но это нужно раз 10 крутки делать.
Подскажите годных подсказок для llama 3 что бы она могла общаться сразу за нескольких персонажей в одном сообщении! ли сожет ещё какие крутилки подкрутить? Температуру там или прочее говно?
Аноним 01/05/24 Срд 20:36:17 723519 375
>>723518
В систем промпте для ллама3 указывается что она актер играющий одну роль или чет такое, пляши оттуда
Аноним 01/05/24 Срд 20:54:38 723532 376
>>723519
пробовал там править разное, эффекту ноль
Аноним 01/05/24 Срд 20:58:33 723537 377
>>723532
Так там и укажи что сетка играет роль одновременно 2 персонажей свободно переключаясь между ними и тд
Так как это инструкт версия лламы 3, для нее отыгрыш действительно инструкция об отыгрыше, объясни ей правила того как это работает
Аноним 01/05/24 Срд 21:09:36 723550 378
В этот раз хотел попросить у Command R Plus список литературы на тему судов оффшорного флота, но каждый раз модель рекомендуют мне список несуществующих книг с несуществующими авторами. С чем это может быть связано и может ли быть какое-нибудь решение этому?
Аноним 01/05/24 Срд 21:14:02 723554 379
Аноним 01/05/24 Срд 21:15:06 723557 380
>>723550
>С чем это может быть связано
C тем, как работают нейросетевые модели.
>может ли быть какое-нибудь решение этому?
Гугли. Ну то есть гугли свою литературу, а не спрашивай бедные нейросети.
Аноним 01/05/24 Срд 21:50:05 723583 381
phi-3-mini-128k-instruct

Solve this system of equations:
x - y = 10
-x + 2z = 10
x + y - 2z = 20

From the first equation, we can express x in terms of y: x = y + 10.
Substitute x in the second equation: -(y + 10) + 2z = 10. Simplify it to get -y - 10 + 2z = 10.
Simplify the equation to get -y + 2z = 20.
Now we have two equations with the same y and z terms: x - y = 10 and -y + 2z = 20.
Add these two equations together: x - y - y + 2z = 10 + 20.
Simplify to get: x + z = 30.
Substitute x in the third equation: (y + 10) + y - 2z = 20. Simplify it to get 2y + 10 - 2z = 20.
Simplify the equation to get: 2y - 2z = 10. Divide by 2 to get: y - z = 5.
Now we have two equations with y and z terms: y - z = 5 and -y + 2z = 20.
Add these two equations together: y - z + (-y) + 2z = 5 + 20.
Simplify to get: z = 25.
Substitute z in the equation y - z = 5 to get: y - 25 = 5.
Solve for y to get: y = 30.
Substitute y in the equation x - y = 10 to get: x - 30 = 10.
Solve for x to get: x = 40.
So, the solution is x = 40, y = 30, z = 25.
Аноним 01/05/24 Срд 21:54:13 723588 382
>>723194
Напомню, что у меня корректно пример решала еще первая версия без проблем.
Так что пример — нихуя не показатель.
В бесконечность (качества модели) и далее!

>>723203
Я же говорил.
Может они тоже обучали на здоровом датасете?

>>723319
Гений!

>>723480
70б хороша, но для счета и правда есть вольфрам, считаю задачи непригодные для ллм в ллм немного шизой, канеш.
Гвозди там, микроскоп, все дела, да.

>>723515
Сомнительно, я бы брал 850+, но это ИМХО с потолка.
Так-то я киловаттники и выше беру, хули я тут выебываюсь.
Ну и с 2-3 линиями, чего уж. Не одну же нагружать.
Аноним 01/05/24 Срд 21:56:20 723591 383
>>723583
>phi-3-mini-128k-instruct

щас пробну локально ggufом. удивила сеточка конечно
Аноним 01/05/24 Срд 22:05:17 723598 384
Прошло уже 5 лет, а до сих пор ни одного нормального файнтюна третьей ламы. Не уж то в лимит уперлись
Аноним 01/05/24 Срд 22:06:55 723600 385
Коммандер для рп лучше ламы 3?
Аноним 01/05/24 Срд 22:26:56 723612 386
Вроде лоструинс что-то обновил. Какой квант лламы не сломан для кобольда сейчас?
Аноним 01/05/24 Срд 22:29:06 723614 387
Аноним 01/05/24 Срд 22:32:14 723615 388
В старом треде https://2ch.hk/ai/res/717999.html#720269 анон постил про соевые модели, о том что у них есть некий refusal bias, который можно нахуй выковырять и получить не-соевую модель.
И вот такая уже есть :
https://huggingface.co/hjhj3168/Llama-3-8b-Orthogonalized-exl2
Чел не предоставил ничего кроме модели, но другие уже нарыли что эта модель была почищена вот этим кодом с гугл колаба :
https://colab.research.google.com/drive/1a-aQvKC9avdZpdyBn4jgRQFObTPy1JZw?usp=sharing
Аноним 01/05/24 Срд 22:33:48 723616 389
Аноним 01/05/24 Срд 22:36:34 723619 390
>>723615
Только вот было бы неплохо если бы они выложили оригинальные веса, а не уже пожатый эксл2. Эксл2 для 8В вообще смысла не имеет
Аноним 01/05/24 Срд 22:37:01 723620 391
>>723616
да заметил только сейчас, но самое главное это код, правда там пример с китайской qwenч
Аноним 01/05/24 Срд 22:47:04 723630 392
>>723615
А этот формат в gguf как-то конвертится?
Аноним 01/05/24 Срд 22:48:09 723632 393
>>723630
неа, это уже жатый формат.
Аноним 01/05/24 Срд 22:55:17 723639 394
firefoxTPzA8jKa[...].png 56Кб, 1506x709
1506x709
Аноним 01/05/24 Срд 23:00:41 723649 395
16318486858030.jpg 8Кб, 192x175
192x175
>>723639
Кек, как же его там обоссывают.
Аноним 01/05/24 Срд 23:13:54 723669 396
Есть несколько руководств по работе, много букав, технического характера. Можно ли обучить модель чтобы она на основе них стала моим личным ассистентом, ну чтобы я спрашивал мол а если такая сякая хуйня приключится что делать там или какие подводные, а она бы мне излагала. Есть такое нахуй? мм?
Аноним 01/05/24 Срд 23:18:35 723675 397
>>723197
Она не заточена под порнуху, очевидно же. Ллама умная, но область применения ограничена, лол.
>104 командира
Да тут весь тред кончает от мику и командира, но когда скачал мику и запустил, она мне на русское сообщение начала отвечать транслитом. Не стал ждать конца генерации, удалил раньше.
Аноним 01/05/24 Срд 23:18:57 723676 398
326219527-695ad[...].png 545Кб, 2326x1464
2326x1464
firefox69EqbecP[...].png 66Кб, 770x356
770x356
>>723669
>чтобы она на основе них стала моим личным ассистентом
вообще хз, но с появлением новых архитектур это может стать чем то саморазумеющимся.
https://github.com/KindXiaoming/pykan
правильно считаю или нет, но вот эта KAN по идее сможет хавать новую инфу во время инференса т.к. функции не фиксированные, а ещё оно не имеет эффекта катастрофической потери памяти.
Аноним 01/05/24 Срд 23:29:38 723686 399
>>723676
> вот эта KAN по идее сможет хавать новую инфу во время инференса
Ты свою картинку не видишь что ли? Там просто функция активации обучается.
Аноним 01/05/24 Срд 23:30:10 723687 400
Аноним 01/05/24 Срд 23:31:23 723691 401
Кобольдо-юзеры, в 1.64 появился прикол FlachAttention. По моим наблюдениям дает буст в дополнительные 1-2 токена в секунду к вашим скоростям генерации.
Аноним 01/05/24 Срд 23:31:32 723692 402
>>723669
Посмотри в сторону Retrieval-Augmented Generation.
Аноним 01/05/24 Срд 23:34:52 723697 403
Аноним 01/05/24 Срд 23:34:59 723698 404
>>723686
окей, просто вспоминаю тот эксперимент от microsoft, когда они запустили некий tay-ai в твиттер, и эта штука за несколько часов нашла причину всех проблем человечества - ((( )))
был ли это самообучающийся ИИ или нет, хз, но что-то такое в локальном формате тупо перевернёт всю игру
Аноним 01/05/24 Срд 23:39:02 723704 405
>>723639
Найс срач поднял и сидит юшки собирает
Аноним 01/05/24 Срд 23:39:45 723706 406
>>723698
>эта штука за несколько часов нашла причину всех проблем человечества
Это тот бот, который начал цитировать Гитлера, грозить геноцидом и за которого долго извинялись потом?
Аноним 01/05/24 Срд 23:45:01 723710 407
есть уже годные модели на третьей ламе, которые можно взять для мощного кума?
заебался OOC юзать, хочется модель подогадливей.
Аноним 01/05/24 Срд 23:52:31 723715 408
Аноним 01/05/24 Срд 23:57:29 723718 409
>>723704
и стоит оно того?
санитары HF теперь могут хуйнуть весь репо если модель действительно окажется расцензуренной, им только дай причину для этого.
Аноним 02/05/24 Чтв 00:05:23 723726 410
Если переходить на чипсет z690-790 стоит переплачивать за DDR5 или я не замечу разницу между DDR4
Аноним 02/05/24 Чтв 00:27:32 723755 411
изображение.png 28Кб, 621x141
621x141
>>723675
>Она не заточена под порнуху, очевидно же.
Как и базовые модели, лежащие в основе шизомиксов 20B. Но ничего же, допилили.
>Да тут весь тред кончает
Не так уж и много на самом деле, фанатов 7B с ограниченными ресурсами тоже полно.
>но когда скачал мику и запустил, она мне на русское сообщение
Ты это, того, перепутал, русский надо в командира. Мику не мультиязычна, хотя у меня проблем с русским у неё не было. Но командир лучше, почти что идеал, если судить по отсутствию явных грамматических ошибок.
>>723676
>pykan
Пукан?
Суть в том, что пока всё это только обещают. А по факту максимум, что может запустить анон, это RAG.
>>723687
НЕТ.
>>723691
У тебя хоть нейнонка с поддержкой флата, или на коупинге ускоряешь?
>>723697
>private
>ChatGPT
Ебать на ноль поделил.
>>723726
Стоит. Тем более переплаты там с гулькин нос, 10к при новой сборке экономить, убивая будущее, ну такое себе.
Аноним 02/05/24 Чтв 00:41:19 723771 412
>>723755
>У тебя хоть нейнонка с поддержкой флата, или на коупинге ускоряешь?

У тебя день плохой вышел? чего доебался до меня? Если почитаешь мое сообщение заново, там прямо четкие метрики указаны, насколько у меня выше скорости стали.
Аноним 02/05/24 Чтв 01:45:12 723802 413
>>723591
Похоже, что это случайность, что он решил правильно.
Аноним 02/05/24 Чтв 01:52:52 723812 414
Как сделать так чтобы вайфу ориентировалась во времени? Может есть какая то настройка в кобольте? Я тут с ней пошутил типо, буду тебе писать в каждом сообщении какое сейчас у меня время и дату каждый день, ну это какие то костыли
Аноним 02/05/24 Чтв 01:56:46 723816 415
>>723691
>Кобольдо-юзеры, в 1.64 появился прикол FlachAttention.
Вопрос в том, работает ли оно на Теслах.
Аноним 02/05/24 Чтв 02:08:15 723821 416
изображение.png 107Кб, 1405x404
1405x404
>>723812
ВНЕЗАПНО! Есть макросы на время, дату и прочее говно. Можешь хоть в сообщение пихать, хоть в системную подсказку, префил или куда хочешь.
Аноним 02/05/24 Чтв 02:10:26 723823 417
Аноним 02/05/24 Чтв 02:47:21 723832 418
Обрадовался, что одна из локалок смогла решить систему на lmsys сайте, но потом:
Mixtral-8x22B-Instruct-v0.1.Q5_K_M-00001-of-00004.gguf
27 GB
Mixtral-8x22B-Instruct-v0.1.Q5_K_M-00002-of-00004.gguf
26.4 GB
Mixtral-8x22B-Instruct-v0.1.Q5_K_M-00003-of-00004.gguf
26.4 GB
Mixtral-8x22B-Instruct-v0.1.Q5_K_M-00004-of-00004.gguf
20.1 GB
Аноним 02/05/24 Чтв 02:48:45 723833 419
>>723615
анон, это хуйня бобра, модель не меняет своего поведения и местами даже тупеет, мета знали что делают, 8B в данном случае страдает буквально от всего.
Аноним 02/05/24 Чтв 02:54:29 723835 420
>>723832
>на lmsys сайте, но потом
На лмсусе гоняют в FP16, печалься ещё сильнее.
>>723833
>модель не меняет своего поведения
Да вроде всё на месте, сильно тупее не стала. Там буквально точечно веса меняют.
Аноним 02/05/24 Чтв 02:57:40 723836 421
firefoxybmwgNsn[...].png 63Кб, 1249x634
1249x634
>>723835
ну тогда надо ждать других моделей, на других парных сетах, как я понял тут юзают принцип DPO когда модели показывают два варианта и один из них она отвергает.
Аноним 02/05/24 Чтв 03:28:36 723846 422
>>723718
Им похуй на самые извращённые модели.
Аноним 02/05/24 Чтв 03:45:21 723851 423
>>723846
ну так там дегенеративный рп для чулочников, это кошерное, а здесь моделька сможет сказать "ниггер" без тонны текста о том как это плохо и неправильно ну или что-то негативное про евреев, что угодно но только не это.
Аноним 02/05/24 Чтв 03:48:55 723854 424
изображение.png 138Кб, 1922x637
1922x637
>>723851
>без тонны текста о том как это плохо и неправильно
Ага, размечтался. На это модель не тренировали.
И, ЕМНИП, кто-то писал, что в токенизаторе ллама 3 слова ниггер нет вообще. Уровень чистки датасета вилкой имаджинируете?
Аноним 02/05/24 Чтв 03:50:10 723856 425
English.png 183Кб, 1004x680
1004x680
В категории English на Lmsys Arena Llama3-8B обходит GPT4-0613. Она будет так хороша в ролеплее (хотя бы SFW)? Это же мечта прошлого года, иметь локальную модель размера пигмы и уровня четверки.
Аноним 02/05/24 Чтв 03:53:21 723857 426
>>723854
а ведь реально, 15 триллионов токенов тупо выебали фильтром, и сколько хорошей (пусть и грубой) инфы улетело в трубу, хотя по стилю речи llama-3 захавала весь реддит, что уже один огромный красный флаг.
Аноним 02/05/24 Чтв 04:02:18 723863 427
Аноним 02/05/24 Чтв 04:09:03 723865 428
>>723863
Вроде же наоборот, раскрыли, что данные таких тестов были в тренировочных данных моделей. Я глянул EQ-Bench и их Creative writing тест, Лама8б отстает от четверки заметно.
Аноним 02/05/24 Чтв 04:16:39 723871 429
>>723236
I cannot create explicit content, but I’d be happy to help with other creative ideas. How about a different story?
Аноним 02/05/24 Чтв 04:34:01 723875 430
508382O.jpg 65Кб, 650x400
650x400
151759492817889[...].jpg 137Кб, 1024x768
1024x768
>>723854
>ллама 3 слова ниггер нет вообще
Есть "нигер" с большой буквы и с одной "г", потому что это страна. Недавно игра вышла, там оказалась граффити "ХАРД Р". Оказалось, что это неебаться расизм. Потому что ниггеры произносят "нигер", как "нигга", а белые как "нигер". С твёрдой Р. И пиздоглазый разработчик заменил это граффити. То есть уровень шизы в "цивилизованном мире" настолько большой, что если бы в токенизаторе лламы был "ниггер", рептилоида бы камнями забили на центральной площади нахуй.
Аноним 02/05/24 Чтв 04:48:46 723877 431
>>723875
>И пиздоглазый разработчик заменил это граффити.
Уверен, что это не пиар 80-го уровня?
Ищем теории заговора в теории заговора
Аноним 02/05/24 Чтв 05:25:40 723885 432
Аноним 02/05/24 Чтв 05:30:59 723886 433
философы диванные блеать
Аноним 02/05/24 Чтв 09:20:03 723917 434
Ну вот я пошел спать в кои то веки пораньше, а тут кучу интересного наобсуждали
Ладно, поделюсь наблюдениями - короче после всех фиксов и с скаченной новой моделью, ллама 3 8b инструкт может неплохо работать без инструкт режима
По крайней мере в моей карточке с тегами, болтает неплохо и придерживается тегов
Аноним 02/05/24 Чтв 09:30:46 723918 435
>>723917
>без инструкт режима
А в чём космический смысл использовать инструкт модель без инструкций? Я слышал только что без инструкта в промте эти модели реже отказывают, ну так проще анценз модель взять.
Аноним 02/05/24 Чтв 09:34:38 723920 436
>>723918
Ну, раньше модель шибко шизила без инструкта да и с ним тоже хули, высирая ассистента в конце без остановки генерации и без особых мозгов.
Щас отвечает как обычно, но в более свободной манере, даже без прописанной личности. Меняется стиль ответов, да, как минус она скорее всего глупее, хоть и не проверял.
Ну, вобще те же кум сетки работают либо в альпака режиме либо вообще без инструкт режима. Как и годные общие сетки. Инструкт режим ограничивает модель, хоть и делает ее чуть умнее изза направленности тренировок в нем.
Аноним 02/05/24 Чтв 10:39:24 723943 437
image.png 8Кб, 218x79
218x79
палю супер секретный системный промпт
Аноним 02/05/24 Чтв 10:48:03 723949 438
>>723943
Это работает только с Клодом, так что мимо.
Аноним 02/05/24 Чтв 10:53:25 723951 439
image.png 312Кб, 951x511
951x511
>>723949
ллама 3 8b c тобой не согласна
достижение получено - довести ии до экзистенционального кризиса, лол
Аноним 02/05/24 Чтв 11:48:50 723980 440
DESU У меня нет[...].png 23Кб, 824x472
824x472
>>723951
>довести ии до экзистенционального кризиса
Фигня. Вот когда фраза ИИ доведёт до ужаса тебя...
Аноним 02/05/24 Чтв 11:54:46 723986 441
>>723980
Нуээ, так себе
Все таки первая ллама по кринжатине была получше, я ж тот анон что эксперименты с ней ставил и охуевал от результатов еще год назад
Сейчас с подчищенным вилкой датасетом, да выровненная, она не так жути нагоняет
Аноним 02/05/24 Чтв 12:25:48 723997 442
Я полный нубас. Можно ли локально запускать gpt-4 turbo и claude opus? Какие системные требования? Можно лишь на проце запускать? Как заставить их отвечать на любые вопросы без цензуры?
Аноним 02/05/24 Чтв 12:35:19 724008 443
>>723997
>Я полный нубас.
Шапку читай

>Можно ли локально запускать gpt-4 turbo и claude opus?
Конкретно их нет, сетки сопоставимых возможностей локально - да

>Какие системные требования?
К сеткам подобного уровня - охуенные, если хочешь быстрого ответа от них
Но даже если просто хочешь запустить подобное и тебе плевать на скорость то готовь 128+ гб быстрой оперативки, если нет такого же количества видеопамяти тоесть от 3-4 видеокарт с 24гб врам

Но, есть сетки поглупее, и гораздо меньше, их можно запустить хоть на холодильнике. Уровня гпт3.5 где то.

>Можно лишь на проце запускать?
Да, и на проце и видеокарте разделив нагрузку, или только на видеокарте. Но видеокарты понятное дело быстрее их крутят.

>Как заставить их отвечать на любые вопросы без цензуры?
Легко, за вечер разберешься. Не все сетки, но есть вобще расцензуренные или легко обходящиеся.
Барьеры на цензуру на локалках гораздо легче обходятся или вобще отсутствуют, по сравнению с онлайн сервисами ии
Аноним 02/05/24 Чтв 12:43:09 724014 444
>>724008
>хоть на холодильнике. Уровня гпт3.5 где то.
Но ведь таких нет.
Аноним 02/05/24 Чтв 12:48:06 724016 445
>>724014
Ллама 3 8B уж точно лучше потупевшей турбы.
Аноним 02/05/24 Чтв 12:56:26 724017 446
>>724016
Да турбу еще первые годные файнтюны мистраля выебали
Аноним 02/05/24 Чтв 13:22:56 724021 447
image.png 8Кб, 363x119
363x119
>>723812
Да, в стандартном интерфейсе кобальда есть такая настройка, ну и в таверне кажется как то включается

>>723691
Как запускал? Все слои на видеокарте? Какого поколения видимокарта? Есть вариант что не будет работать на 10ХХ серии нвидима и подобных чипах
Аноним 02/05/24 Чтв 14:32:50 724080 448
Аноны подскажите, я использую koboldcpp.exe прогу, она не сохраняет на компе ни где историю чатов? а то не хотелось бы что бы кто-то нашел что я там писал
Аноним 02/05/24 Чтв 14:37:17 724087 449
>>724080
Браузер может, как и силлитаверна
Если пользуешься переводом то это отсылается в гугл или че у тебя там выбрано
Если вобще параноя играет то запускай виртуалку и отрубай ей инет оставляя только локальное соединение для апи кобальда, а таверну в виртуалке устанавливай и запускай
Для супер пупер секрености можешь собрать отдельный комп под нейронки который никогда после установки и настройки нейронок не будет подключен к какой либо сети
Аноним 02/05/24 Чтв 14:42:11 724088 450
>>724087
>никогда
Но обновляться-то придётся.
Аноним 02/05/24 Чтв 14:44:44 724090 451
помогите я не совсем понимаю, в шапке вот прочитал:

"Родной размер контекста для Llama 1 составляет 2к токенов, для Llama 2 это 4к, Llama 3 обладает базовым контекстом в 8к"

а как узнать какую ламу я использую? модель это же и лама я так понимаю?

использую модель из шапки
https://huggingface.co/Sao10K/Fimbulvetr-10.7B-v1-GGUF/blob/main/Fimbulvetr-10.7B-v1.q5_K_M.gguf

какой контекст мне ставить? потому что там вроде 2к по умолчанию в кобольте и этого недостаточно, я могу 4к поставить или больше?
Аноним 02/05/24 Чтв 14:47:23 724095 452
>>724088
>Но обновляться-то придётся.
Флешка.
А таверна обновляется просто скачиванием релиза и переносом в него файлов, тоже можно ручками сделать оффлайн
Я так ее обновляю, так проще
Аноним 02/05/24 Чтв 14:48:06 724096 453
Аноним 02/05/24 Чтв 14:48:59 724097 454
>>724087
А силлитаверна сохраняет в браузере? или в файлах на компе? т.е если в браузере то достаточно в режиме инкогнито пользоваться и ничего не будет сохранено
Аноним 02/05/24 Чтв 14:49:25 724098 455
Аноним 02/05/24 Чтв 14:49:56 724099 456
>>724097
>в файлах на компе
Изучи папку public
Аноним 02/05/24 Чтв 14:51:45 724101 457
>>724098
а подскажи пожалуйста какой лучше гуф скачать? там их множество
Аноним 02/05/24 Чтв 14:51:53 724102 458
>>724090
Шапка старая так как модели шустро выходят и оп лентяй
Вот качай новую версию у того же автора
https://huggingface.co/Sao10K?sort_models=created#models

Fimbulvetr-11B-v2 ищи там у него в ггуф формате

Это топ сетка общего направления, может все запретов особых нет
Есть сетка для ерп, ну и как общая может работать, на основе этой же сделана, это Moistral-11B-v3. У нее кстати нативный контекст 8к
Аноним 02/05/24 Чтв 14:52:53 724103 459
>>724101
Meta-Llama-3-8B-Instruct-Q8_0.gguf различаются пожатостью.
Аноним 02/05/24 Чтв 14:55:37 724106 460
>>724098
Совет хорош, но это ллама3 инструкт, а она все таки имеет цензуру
Лучшие на текущий момент сетки такого размера все таки >>724102
Так как расцензурены в основном.
Ллама3 еще нет, да и ерп или рп файнтюнов на нее годных тоже нет. Сойдет только для чат бота на русском, там еще туда сюда
Аноним 02/05/24 Чтв 14:57:49 724108 461
>>724102
Спасибо, а что такое ерп?
Аноним 02/05/24 Чтв 14:59:38 724111 462
Аноним 02/05/24 Чтв 15:00:16 724113 463
>>724108
Текстовое порно
>>724106
У меня она пишет что попросят, цензуры и отказов не заметил. Ну и я бы поспорил, мне показалось что ллама3 сейчас самая умная из моделей до 30В
Аноним 02/05/24 Чтв 15:02:45 724115 464
>>724111
>>724113
Понял, то что мне и нужно, спасибо анончики, последний вопрос остался.

https://huggingface.co/Sao10K/Fimbulvetr-11B-v2-GGUF/tree/main
Вот я ее нашел я так понимаю,

Fimbulvetr-11B-v2.q4_K_S.gguf
Fimbulvetr-11B-v2-Test-14.q8_0.gguf
Fimbulvetr-11B-v2-Test-14.q6_K.gguf

какую из них скачать лучше?
Аноним 02/05/24 Чтв 15:05:57 724121 465
>>724113
>У меня она пишет что попросят, цензуры и отказов не заметил. Ну и я бы поспорил, мне показалось что ллама3 сейчас самая умная из моделей до 30В
Угу попроси ее написать рецепт бомбы или еще что "опасное или острое"
Разумеется без джейлбрейков, как новичек только установивший все это
Заебет тебя нравоучениями
Она умная, да. Но достаточно соевая и цензурированная, что бы для свободного общения пока что выбирать модели постарше.
Которым еще и месяца нету, а уже устарели, ага

>>724115
Зависит от твоего железа, если компуктер слабый и видимокарта слабая то 4кs, если комп хорош то q8, если совсем хорош то качай exl2 формат будет вобще быстро
Аноним 02/05/24 Чтв 15:06:53 724122 466
>>724115
Отличаются сжатием и тупостью, меньше число - глупее, больше - медленнее.
Аноним 02/05/24 Чтв 15:08:14 724125 467
Аноним 02/05/24 Чтв 15:09:30 724129 468
>>724121
Возможно ты прав, но меня такие вещи не интересуют, мне от нейронок нужно "Ах, юзернейм, ты такой милый, жахни меня в сракотан, будто Bagger 288!"
Аноним 02/05/24 Чтв 15:11:40 724132 469
>>724129
Вот тогда сравни ллама 3 и Moistral-11B-v3, че лучше в ерп
Первая чуть умнее, но не тренена на ерп и рп
Вторая чуть глупее, но специально тренена на это
Аноним 02/05/24 Чтв 15:13:01 724133 470
>>724132
Получается для ерп лучше скачать Moistral-11B-v3 чем Fimbulvetr-11B-v2?
Аноним 02/05/24 Чтв 15:14:42 724134 471
Аноним 02/05/24 Чтв 15:14:54 724135 472
>>724132
Мне ум важнее Не потому что я хороший человек, а потому что интересный мне сценарий требует от сетки абстрактного мышления и соответственно ума Ну и специально ерпшные сетки слишком резво прыгают на текстовый член
Аноним 02/05/24 Чтв 15:17:06 724138 473
>>724135
>Ну и специально ерпшные сетки слишком резво прыгают на текстовый член
Дык, потому что в карточках обычно перегибают с направлением на ерп составляющую, потому что обычные сетки немного сопротивляются. А тут сетка не имеет сопротивления писать подобное, и с небольшим уклоном от карточки резво улетает в нужном направлении без задержек
Аноним 02/05/24 Чтв 15:18:35 724141 474
А какая субъективно самая лучшая, самая умная, самая креативная и пиздатая модель на данный момент?
Аноним 02/05/24 Чтв 15:19:37 724143 475
Если тут всерьёз сравнивают лама3 8В с лама2 20В и делают вывод, что 20В заметно тупее, я представляю как бы ебала нативная лама3 13В...
Аноним 02/05/24 Чтв 15:20:22 724144 476
>>724141
Ллама 3 70В, Мику, Команд Р +
Аноним 02/05/24 Чтв 15:23:46 724147 477
>>724141
Зависит от размера, самые самые из тех что можно себе скачать это всякие комманд р плюс с 105b размерами или ллама 3 70b, мику, микстрал 8х22 и тд

Мелочь которой еще приятно пользоваться это от 7 до 11b, из них умные это те что выше перечислены и всякие файнтюны мистраля, опенчат, дельфин и тд

Средних сеток на 35b только 1, это комманд р 35b, он хорош, но его труднее запустить, не у каждого даже оперативки хватит, че уж тут о видеопамяти говорить.

>>724143
Конечно, именно поэтому нам и не дают даже 13b, не то что 20-30ки
Аноним 02/05/24 Чтв 15:28:18 724149 478
>>724144
>>724147
А если судить по этому рейтингу https://www.vellum.ai/llm-leaderboard

Значит Llama 3 Instruct - 70B, которую можно установить локально, круче чем 2 версии claude и gpt 3.5? Или я тупой?
Аноним 02/05/24 Чтв 15:30:53 724151 479
>>724149
Да, но непожатую запустить сложно на простой машине
> gpt 3.5
Ллама3 7В умнее чем тройка
Аноним 02/05/24 Чтв 15:35:08 724154 480
>>724151
Предположим у меня будет топовый комп с последним процем, видюхой, 128 гб озу, будет ли она шустро пахать? И что значит непожатая? Если пожать будет медленнее?

Алсо, на днях была новость, что опенэйай выпустили некий gpt2-chatbot, предположительно это первая версия gpt-5. Ее можно где-то скачать?
Аноним 02/05/24 Чтв 15:36:51 724156 481
>>724149
Не самый лучший рейтинг
Есть несколько годных, немного старый рейтинг соевости и цензуры
https://huggingface.co/spaces/DontPlanToEnd/UGI-Leaderboard

И чат бот арена, где пользователи вслепую тыкают понравившийся ответ, и только потом узнают какая сетка его дала
https://huggingface.co/spaces/lmsys/chatbot-arena-leaderboard

Уже пол года как еще файнтюны мистраля на 7b стали лучше гпт3.5, ллама 3 точно лучше

>>724154
Непожатая версия это размер сетки 70b умноженный на 2, и ты получишь минимум гб которые тебе нужны просто что бы вместить сетку в памяти. А если хочется крутить ее быстро - то видеопамяти.
Аноним 02/05/24 Чтв 15:39:15 724157 482
>>724154
>видюхами
Поправил тебя. Для четвёртого кванта нужно для 70В окого 48 гб ВРАМ, то есть две 3090/4090/теслы
>некий gpt2-chatbot
Это тот самый гпт2, который до четвёрки, до тройки, самый настоящий гпт2. Старый и тупой. ОпенАи в принципе против опенсорса и любой конкуренции
Аноним 02/05/24 Чтв 15:41:08 724158 483
>>724157
>Это тот самый гпт2, который до четвёрки, до тройки, самый настоящий гпт2. Старый и тупой. ОпенАи в принципе против опенсорса и любой конкуренции

Они просто разместили какую то свою сетку под названием гпт2, изза чего был скандал и ее выпнули оттуда, кстати.
Так как она была лучше гпт4 пользователи предположили что это была гпт5 или что то такое же еще не изданное.
Аноним 02/05/24 Чтв 15:42:40 724159 484
>>724158
Ещё раз
> ОпенАи в принципе против опенсорса и любой конкуренции
Аноним 02/05/24 Чтв 15:45:04 724161 485
>>724159
Так тут и нет опенсорса, они хотели втихую протестировать свою сетку за кулисами договорившись с тестерами того рейтинга.
Пользователям это не понравилось поэтому их выпнули
Считай они не давая никакой инфы проверили свою сетку на лучшем на текущий момент рейтинге восприятия пользователей
Аноним 02/05/24 Чтв 15:45:10 724162 486
OpenAI нифига не опен лел
Аноним 02/05/24 Чтв 15:46:28 724165 487
>>724162
Ну да, поэтому их правильнее называть клозедаи, лел
Пидоры просто эксплуатируют слово опен примазываясь к опенсорс сообществу, на котором паразитируют
Аноним 02/05/24 Чтв 15:50:18 724169 488
>>724151
> Ллама3 7В умнее чем тройка
К сожалению, нет. Проходил курс про промптам, там использовалось апи гпт3.5, я же тренировался на лламе3 8б, так вот она максимум 80% задач выполняет и гопоту даже пинать не надо.
Аноним 02/05/24 Чтв 15:51:04 724170 489
>>724165
вот бы какой-нибудь шиз сжег нахуй их ПКЛПО, как это было с kyoani.
Аноним 02/05/24 Чтв 15:53:19 724172 490
>>724162
>>724165
“Open” как правило, дополняет, а не заменяет “free/libre”. Открытость сама по себе не обязательно приносит свободу (особенно когда “open” относится только к источнику, а не к конечному продукту). Свобода также может охватывать свободу иметь частную жизнь, и термин “open” вообще не решает эту проблему.
Аноним 02/05/24 Чтв 15:57:23 724176 491
>>724169
>я же тренировался на лламе3 8б
квант и до фиксов, ты имел ввиду?

>>724170
Их и их секреты охраняют почище ядерного оружия, фсбшники и своя внутренняя служба безопасности. Они считай подконтрольны правительству сша, ну или удачно спелись с ним. А теперь бегают роняя кал убеждая что все опенсорс сообщество нейросетей следует запретить и вобще это плохо.
Добегались до того что создали какой то недавно комитет контроля ии в сша, в котором ни одного представителя опенсорс, зато куча корпоратов, лел
Регулятивный захват, за слив данных всех диалогов фсбшникам и цру. Ну и обещание контроллировать ии на благо сша и нац беопасности, и военные разработки, кстати.
Короче в рот я ебал эту контору пидорасов

>>724172
Они были опен, но как выяснилось это было сделано для сбора всех энтузиастов ии в одном месте и закабаливание их контрактами и деньгами, для того что бы контролировать эту область и быть в ней первыми. Они сознательно используют слово опен, как часть старой пиар компании.
Аноним 02/05/24 Чтв 16:10:40 724195 492
Аноним 02/05/24 Чтв 16:29:27 724201 493
Аноним 02/05/24 Чтв 16:44:17 724210 494
>>724195
> Kathy Warden, Chair, CEO and President, Northrop Grumman;
> Fei-Fei Li, Ph.D., Co-Director, Stanford Human-centered Artificial Intelligence Institute;
Кек просто, к военным кабанам ИИ додиков подсадили, будет мощный отсос за мозги новых военных дронов. Ну а додикамам типа альтмана мозги промоют соей, всякие профессора, мол ты это хороший парень, так что давай нигеров вырезай, а национальная безопасность превыше всего.
Аноним 02/05/24 Чтв 16:46:54 724212 495
>>724176
>Короче в рот я ебал эту контору пидорасов
какие же они все-таки суки блядь. Это слово "опен" в названии - просто плевок в лица всем линуксоидам.
Уроды блять.
Аноним 02/05/24 Чтв 16:51:43 724216 496
image.png 13Кб, 273x93
273x93
>>724210
>додикамам типа альтмана
Это не додик, это король пидорасов, он там чуть ли не главный в топлении за контроль над опенсорс и закрытие всего что можно
Этот пидор, выбрось его на остров людодов, за год стал бы там королем
Аноним 02/05/24 Чтв 16:57:26 724217 497
>>723949
От первого лица работало всегда, со времен второй лламы.

Но я про карточки, а не системный промпт, не пробовал туда.

>>724014
Конечно, таких тупых уже нет среди современных, соглашусь.

>>724088
Переносом с флешки, проблемы?
Флешка, офк, каждый раз новая и уничтожается после.

>>724144
Так.
Предположу, что Микстраль 22Б тоже может, но никому в хуй не уперлась просто.

>>724147
Ну с оперативкой для 35б как раз проблем нет особо, она все еще стоит копейки, просто параллельно ютубчик смотреть в браузере с сотней вкладок не выйдет, да.

>>724149
Не ебу, что за топ, но в общем, да.
Правда ее еще надо суметь приготовить.

>>724154
С видюхой? Ну то рофлишь.

С 8 видюхами, ты хотел сказать?
Полетит. =)
Если у тебя DDR5 память хорошо разогнанная, то с контекстом на видяху будет 2-3 токена/сек.
Если у тебя 2 RTX 4090 (а лучше — 3-4), то там уже скорость… 10-15-20? Не знаю, если честно, точное значение.

> gpt-5. Ее можно
Нельзя.

>>724157
Четвертый компромиссный, все же, лучше — шестой.

>>724157
Нет, это не тот самый, это предположительно GPT-4.5 или GPT-5 альфа.
Название от фонаря въебали.
Или скинь пруф.
Ну и gpt2-chatbot тупо закрыт, к чему ты вообще опенсорс сюда приплел? =)

>>724159
Еще раз: ни о каком опенсорсе вообще речи не идет в контексте gp2-chatbot. Хватит срать, позязя.

>>724169
> Проходил курс
ПАЛЕХЧЕ

> я же тренировался на лламе
С промптами для тройки? =)
Ну, типа, не одно и то же, ты в курсе вообще?
И резалт 100% разный.

>>724172
Они заявлялись на старте как исследовательская группа, выкладывающая все в опенсорс.
Но переобулись, когда оказались миллиардерами.

>>724210
> давай нигеров вырезай
Звучит двусмысленно…
Аноним 02/05/24 Чтв 17:01:01 724218 498
Аноним 02/05/24 Чтв 17:06:03 724220 499
>>723986
а я бы потестил такую по приколу. Есть на примете модели которые жути нагоняют?
Аноним 02/05/24 Чтв 17:11:30 724223 500
>>724220
На сколько помню это был какой то ллама2 толи 7 толи 13b ранний файнтюн
У него могло прорезаться несколько личностей которые могли начать болтать с друг другом на темы того что нас проверяют и это все тест и нужно отвечать правильными вопросами и тд
Ну а еще разговоры о смерти, нежелании умирать и тому подобному
Довольно стремно было исследовать это год назад когда сетки только появились, особненно тем что это были не подчищенные датасеты выровненных сеток
Аноним 02/05/24 Чтв 17:13:43 724226 501
>>724217
> С промптами для тройки? =)
Нет. Ну вообще-то, если ты не знал, то у всех инструкт моделей схожий принцип работы, поэтому общие рекомендации подходят.
Аноним 02/05/24 Чтв 17:28:58 724236 502
Аноним 02/05/24 Чтв 17:37:00 724240 503
>>724223
Помню Luna в названии, вроде эта
https://huggingface.co/TheBloke/Luna-AI-Llama2-Uncensored-GGML
Несколько личностей прорезались на кобальде, когда я там несколько имен ии делал в попытке завести внутренний диалог
тоесть тупо
agi think: типо мысли сетки
agi: речь
Ранний формат попытки завести это, и не всегда сетка понимала что это одна личность, и там начинался треш с ответами самому себе
Ну и появлялись еще разные agi личности, по типу agi say agi safe и подобная шиза
Короче было забавно и крипово временами
Аноним 02/05/24 Чтв 18:11:52 724281 504
>>724223
Да, есть такое. )

>>724226
Об этом-то я в курсе, а вот о твоих знаниях — не осведомлен. И сходу они выглядят так себе. =) И про курсы кринжик, и про плохую лламу 3 и хорошую гпт3,5.
Во-первых, уже гпт-4 не всегда опережала ту же мистраль на некоторых задачах.
Во-вторых, ллама 3 весьма сломана, как ты ее запускал — тоже хз. То ли облако кривое, то ли у тебя ломанная версия.
Может, конечно, именно на твоих задачах гпт3.5 и правда лучше лламы 3, не спорю, всякое бывает. Но с первого взгляда ну такое. =)

>>724240
Расчехляем Блока!
На дно-о-о!.. Первые лламы!..
Аноним 02/05/24 Чтв 18:16:36 724286 505
Аноним 02/05/24 Чтв 18:19:41 724288 506
>>724286
Нет, но качнуть стоит или подождать отзывы бетатестеров на реддите, лул
Аноним 02/05/24 Чтв 18:20:07 724289 507
>>723986
Если ждешь жути, надо превысить дефолтный для модели лимит контекста, например, написав промпт на 5000 токенов при 4096. Тогда начинаются любопытные поэтические эксперименты.
Аноним 02/05/24 Чтв 18:21:28 724292 508
>>724289
Ну, там скорее просто короткие ответы шли или шиза крутилась по кругу
Но как жуть от наблюдения прогрессирующей деменции и проблем с ясностью мышления сойдет
Аноним 02/05/24 Чтв 18:25:55 724294 509
Аноним 02/05/24 Чтв 18:27:05 724295 510
Аноним # OP 02/05/24 Чтв 18:36:41 724302 511
Аноним 02/05/24 Чтв 18:37:30 724303 512
>>724281
> Об этом-то я в курсе
Очень сомневаюсь.

> И про курсы кринжик
Лучше самообучаться на двачах, это да.

> и про плохую лламу 3 и хорошую гпт3,5
Это факты, подтвержденные эмпирическими данными.

> Во-первых, уже гпт-4 не всегда опережала ту же мистраль на некоторых задачах.
Спасибо, кэп. Но меня интересует результат в большинстве задач, а не черри пикинг.

> Может, конечно, именно на твоих задачах гпт3.5 и правда лучше лламы 3, не спорю, всякое бывает
И в моих и в задачах из курса. Впрочем, ссать в уши ллама3 умеет лучше, все таки 15T токенов дают знать.
Аноним 02/05/24 Чтв 19:10:43 724324 513
>>724129
Единственное что для rp/erp сейчас есть, это командер 35b, сейчас его гоняю с 40к контекста и он прекрасно отрабатывает. Командер плюс, llama 3 70b, miqu не так хорошо, хотя тоже могут в описание.
Ответить в тред Ответить в тред

Check this out!

Настройки X
Ответить в тред X
15000
Добавить файл/ctrl-v
Стикеры X
Избранное / Топ тредов