Пропущено 135 постов 135 с картинками.
Пропущено 1509 постов, 135 с картинками.
>>1102220 Ну так авторег почты тоже продают. Ибо >>1102203
>>1102221 Конкретно одиссея (тот дискорд) совершила революцию и выгнала подобных торговцев из храма кума, объявив тотальный спунфид и креатив коммонс.
Пропущено 185 постов 185 с картинками.
Пропущено 508 постов, 185 с картинками.
>>1099142 спасибо. Я же правильно понимаю, что при помощи разрешения можно помогать сети расположить персонажа в кадре? Например, я изначально взял 800 на 400, вместо того, что в интерфейсе стояло по умолчанию, чтоб пачули лежала, а не сидела, и это, вроде, помогло. Если же брать для горизонтальных сцен 1344х768, а для вертикальных 768х1344, то я, получается, и генерацию улучшу и в качестве работы сети не проебу. Или не получается?
>>1099171 Такое может быть, но без гарантий.
Пропущено 180 постов 180 с картинками.
Пропущено 1514 постов, 180 с картинками.
>>1099917 Ну когда дипсик только вышел на cyoa пресете было довольно забавно, я даже поржал несколько раз с забавных ситуаций, ни с какой сеткой такого не было
>>1100062 это из какой то eveподобной дрочильни шарада на пике?
Покормите с ложки пресетом для 4.5 пожалуйста.
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны! Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст, и бугуртим с кривейшего тормозного говна. Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.Официальная вики треда с гайдами по запуску и базовой информацией: https://2ch-ai.gitgud.site/wiki/llama/ Инструменты для запуска на десктопах: • Самый простой в использовании и установке форк llamacpp, позволяющий гонять GGML и GGUF форматы: https://github.com/LostRuins/koboldcpp • Более функциональный и универсальный интерфейс для работы с остальными форматами: https://github.com/oobabooga/text-generation-webui • Однокнопочные инструменты с ограниченными возможностями для настройки: https://github.com/ollama/ollama , https://lmstudio.ai • Универсальный фронтенд, поддерживающий сопряжение с koboldcpp и text-generation-webui: https://github.com/SillyTavern/SillyTavern Инструменты для запуска на мобилках: • Интерфейс для локального запуска моделей под андроид с llamacpp под капотом: https://github.com/Mobile-Artificial-Intelligence/maid • Альтернативный вариант для локального запуска под андроид (фронтенд и бекенд сепарированы): https://github.com/Vali-98/ChatterUI • Гайд по установке SillyTavern на ведроид через Termux: https://rentry.co/STAI-Termux Модели и всё что их касается: • Актуальный список моделей с отзывами от тредовичков: https://rentry.co/llm-models • Неактуальный список моделей устаревший с середины прошлого года: https://rentry.co/lmg_models • Миксы от тредовичков с уклоном в русский РП: https://huggingface.co/Moraliane и https://huggingface.co/Aleteian • Рейтинг моделей по уровню их закошмаренности цензурой: https://huggingface.co/spaces/DontPlanToEnd/UGI-Leaderboard • Сравнение моделей по сомнительным метрикам: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard • Сравнение моделей реальными пользователями по менее сомнительным метрикам: https://chat.lmsys.org/?leaderboard Дополнительные ссылки: • Готовые карточки персонажей для ролплея в таверне: https://www.characterhub.org • Пресеты под локальный ролплей в различных форматах: https://huggingface.co/Virt-io/SillyTavern-Presets • Шапка почившего треда PygmalionAI с некоторой интересной информацией: https://rentry.co/2ch-pygma-thread • Официальная вики koboldcpp с руководством по более тонкой настройке: https://github.com/LostRuins/koboldcpp/wiki • Официальный гайд по сопряжению бекендов с таверной: https://docs.sillytavern.app/usage/local-llm-guide/how-to-use-a-self-hosted-model • Последний известный колаб для обладателей отсутствия любых возможностей запустить локально: https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing • Инструкции для запуска базы при помощи Docker Compose: https://rentry.co/oddx5sgq https://rentry.co/7kp5avrk • Пошаговое мышление от тредовичка для таверны: https://github.com/cierru/st-stepped-thinking • Потрогать, как работают семплеры: https://artefact2.github.io/llm-sampling/ Архив тредов можно найти на архиваче: https://arhivach.hk/?tags=14780%2C14985 Шапка в https://rentry.co/llama-2ch , предложения принимаются в треде. Предыдущие треды тонут здесь:>>1083681 (OP) >>1071720 (OP)
Пропущено 90 постов 90 с картинками.
Пропущено 549 постов, 90 с картинками.
>>1098587 в пресете для геммы 3 с пикселя
Пропущено 166 постов 166 с картинками.
Пропущено 1518 постов, 166 с картинками.
image.png
1127Кб, 1024x574
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны! Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст, и бугуртим с кривейшего тормозного говна. Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.Официальная вики треда с гайдами по запуску и базовой информацией: https://2ch-ai.gitgud.site/wiki/llama/ Инструменты для запуска на десктопах: • Самый простой в использовании и установке форк llamacpp, позволяющий гонять GGML и GGUF форматы: https://github.com/LostRuins/koboldcpp • Более функциональный и универсальный интерфейс для работы с остальными форматами: https://github.com/oobabooga/text-generation-webui • Однокнопочные инструменты с ограниченными возможностями для настройки: https://github.com/ollama/ollama , https://lmstudio.ai • Универсальный фронтенд, поддерживающий сопряжение с koboldcpp и text-generation-webui: https://github.com/SillyTavern/SillyTavern Инструменты для запуска на мобилках: • Интерфейс для локального запуска моделей под андроид с llamacpp под капотом: https://github.com/Mobile-Artificial-Intelligence/maid • Альтернативный вариант для локального запуска под андроид (фронтенд и бекенд сепарированы): https://github.com/Vali-98/ChatterUI • Гайд по установке SillyTavern на ведроид через Termux: https://rentry.co/STAI-Termux Модели и всё что их касается: • Актуальный список моделей с отзывами от тредовичков: https://rentry.co/llm-models • Неактуальный список моделей устаревший с середины прошлого года: https://rentry.co/lmg_models • Миксы от тредовичков с уклоном в русский РП: https://huggingface.co/Moraliane и https://huggingface.co/Aleteian • Рейтинг моделей по уровню их закошмаренности цензурой: https://huggingface.co/spaces/DontPlanToEnd/UGI-Leaderboard • Сравнение моделей по сомнительным метрикам: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard • Сравнение моделей реальными пользователями по менее сомнительным метрикам: https://chat.lmsys.org/?leaderboard Дополнительные ссылки: • Готовые карточки персонажей для ролплея в таверне: https://www.characterhub.org • Пресеты под локальный ролплей в различных форматах: https://huggingface.co/Virt-io/SillyTavern-Presets • Шапка почившего треда PygmalionAI с некоторой интересной информацией: https://rentry.co/2ch-pygma-thread • Официальная вики koboldcpp с руководством по более тонкой настройке: https://github.com/LostRuins/koboldcpp/wiki • Официальный гайд по сопряжению бекендов с таверной: https://docs.sillytavern.app/usage/local-llm-guide/how-to-use-a-self-hosted-model • Последний известный колаб для обладателей отсутствия любых возможностей запустить локально: https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing • Инструкции для запуска базы при помощи Docker Compose: https://rentry.co/oddx5sgq https://rentry.co/7kp5avrk • Пошаговое мышление от тредовичка для таверны: https://github.com/cierru/st-stepped-thinking • Потрогать, как работают семплеры: https://artefact2.github.io/llm-sampling/ Архив тредов можно найти на архиваче: https://arhivach.hk/?tags=14780%2C14985 Шапка в https://rentry.co/llama-2ch , предложения принимаются в треде. Предыдущие треды тонут здесь:>>1071720 (OP) >>1061545 (OP)
Пропущено 56 постов 56 с картинками.
Пропущено 514 постов, 56 с картинками.
>>1093777 Потестил. Пишет приятно, ново, но в ЕРП - хуйня, хоть и джейлится изи. Фантазии не особо хватает, и beads of precum from the tip of swollen clit - сделало меня кекнуть. Регулярно срётся с разметкой. Может быть пресет от гемма 2 не подходит под неё?
>>1094770 LM Studio последней версии хавает.
Пропущено 174 постов 174 с картинками.
Пропущено 1550 постов, 174 с картинками.
щяс пью витамины а потом пробиваю дырку в животе себе и витомины в расплавеном виде и я их снова жру
у меня отведенная роль жрать витамины я сучка плебея
Пропущено 213 постов 213 с картинками.
Пропущено 509 постов, 213 с картинками.
image
295Кб, 1024x1024
>>1091283 Я проверил всё как ты написал по пунктам, но не работает. Кроме discrete sampling, хз что это, не гуглится. Может модель какая-то плохая? У меня noobaiXLNAIXL_vPred10Version.safetensors https://civitai .com/models/952762/leco-erase-speech-bubble-and-sound-effects-for-noobaixlnaixlepsilonpred10 Может оно не годно для аутоматик11? Вае выставил на Авто.
>>1092678 >не годно для аутоматик да, вперде в автоматике пока не пашет, ставь комфи
>>1084904 (OP) Подскажите тэг, пожалуйста. Хочу что-то типа свободного падения не РКН или полёта.
Пропущено 200 постов 200 с картинками.
Пропущено 1568 постов, 200 с картинками.
>>1090666 Ссылочку подкинь пожалуйста
Пропущено 128 постов 128 с картинками.
Пропущено 1500 постов, 128 с картинками.
Че произошло с жанет гардиан? Я все проспал
Пропущено 171 постов 171 с картинками.
Пропущено 1587 постов, 171 с картинками.
>>1088301 У еврея всегда можэно купить
>>1088036 >male dominant ето я, кстати
Пропущено 105 постов 105 с картинками.
Пропущено 503 постов, 105 с картинками.
>>1085504 > Чё я теперь должен делать еще? Лол, нахуй ты через ллм книгу переводишь, если есть deepl, который тебе без цензур переведет и наиболее точно.
image.png
109Кб, 264x191
>>1085533 >Лол, нахуй ты через ллм книгу переводишь, если есть deepl Потому что мне говно не нужно. Если ты слепой и не видишь стилистические оишбки и прочую срань - тебе и гугол норм зайдет. Меня такое не устраивает. Даже из ллм минимум которые могут реально на русском нормально художку переводить. Щас вот я на гроке читаю, но он прям как все файтюны лламы обсирается при переводе речи людей, у дипсика та же самая ерунда и еще плохой русский , но грок прям странно делает - на терпимом уровне художественность в тексте и прям срёт гуглом и подстрочником в прямой речи. А мне не приятно, у меня дохуя планка высокая, я даже печатные книги дропаю если такую хуйню вижу.>>1085529 >По ходу ты просто в промптинг не умеешь Ага, ехай нахуй. Я не говорил что у меня проблемы, я сказал что это хуевые инструменты и объяснил почему. На данный момент. И дипсёрча кривой ризонинг, точка. Пусть делают новый или не буду пользоваться.
баба лежит.jpg
935Кб, 1338x1959
баба с жирафом.png
4349Кб, 2048x2048
баба труп.jpg
463Кб, 2310x962
бабу жмут.jpg
565Кб, 832x1216
заяц.png
3115Кб, 1920x1080
картошка.png
5797Кб, 1792x2304
молочко.jpg
509Кб, 1024x1024
наездник.jpg
2479Кб, 2304x1792
Тред локальной генерации, преимущественно реализм. Cоседи ► Аниме-тред >>1069252 (OP) ► DALL-E + MidJourney + ImageFX + тд тп >>1042275 (OP) ► Техно-тред >>974163 (OP) База: → Приложение ComfyUI https://www.comfy.org/download → Примеры https://comfyanonymous.github.io/ComfyUI_examples/ (откуда, куда, как. Начинать со страницы SDXL) → Менеджер расширений https://github.com/ltdrdata/ComfyUI-Manager (автоустановка, реестр расширений) → Модели https://civitai.com/ (собрано со всего инета) Промт должен быть кратким для SDXL и поэма длинная для Flux и SD3.5, негативы обычно вредны.ЧТО НОВОГО АКТУАЛЬНОГО ЗА ГОД • SDXL модели: Natural Vision v1.0, BigASP v1.0, Illustious (cyberillustrious/thrillustrious), NoobAI (noobReal). Все 4 NSFW; • SD3.5 medium и large; • Flux dev и schnell; • Auraflow. Станет Pony Diffusion v7; • ComfyUI + Krita = Krita-ai-diffusion; • DARE Merge; • Лора DMD2 для SDXL ускоряет в 2 раза. Пример: 10 шагов, семплер LCM, шедулер beta, 832x1216, CFG 1-1.2 для обычных SDXL https://huggingface.co/tianweiy/DMD2/blob/main/dmd2_sdxl_4step_lora_fp16.safetensors , CFG 3 для NoobAI https://huggingface.co/YOB-AI/DMD2MOD/blob/main/LYC-DMD2MOD%20(Dmo%2BTffnoi).safetensors , Оффлайн модели для картинок: Stable Diffusion, Flux, OmniGen (Shitao), Auraflow, HunyuanDiT, Lumina, Kolors, Deepseek Janus-Pro, Sana Оффлайн модели для анимаций: HunyuanVideo, Lightrics (LTXV), Mochi, Nvidia Cosmos, PyramidFlow, CogVideo, AnimationDIFF, Stable Video Diffusion Приложения: ComfyUI, Fooocus, webui-reForge, Stability matrix, webui-Forge (мёртв), webui от A1111 (мёртв) ► Предыдущий тред >>1065774 (OP) ► https://arhivach.hk/?tags=13840 Дополнительно: https://telegra.ph/Stable-Diffusion-tred-X-01-03
Пропущено 225 постов 225 с картинками.
Пропущено 522 постов, 225 с картинками.
Пропущено 180 постов 180 с картинками.
Пропущено 516 постов, 180 с картинками.
>>1084765 Когда очередной даун задаёт даунский вопрос, он получает ответ для своего уровня развития.
>>1084884 Оформляешь подписку на novelai 4, в этой модели ты можешь указывать кто актив, а кто пассив по всем действиям через специальные теги: source#действие - кто будет ебать. target#действие - кому засаживают. И негативы к каждому персонажу написать вдобавок.
>>1083971 Что за персонаж?
Может кто-нибудь сделать модель LORA, по моим фото или подсказать какие-нибудь бесплатные сервисы, в которых можно обучить?
Пропущено 7 постов 7 с картинками.
Пропущено 16 постов, 7 с картинками.
>>1084384 Закидывать в папку с чекпоинтами или Лора?
>>1084518 Да в папку Loras в ComfyUI. Модель я использую свою. Negative embedding от cyberNegative либо свои промпты через гугл.
>>1084518 Пиши в телегу я тебе так быстрее отвечу если будут вопросы @SystemError0x27
Пропущено 201 постов 201 с картинками.
Пропущено 1547 постов, 201 с картинками.
>>1085852 Эта параша хуже бесплатных прокси. У них огромный лаг и постоянные баны от ркн Причем я не понимаю откуда такой лаг, в ближайших странах даже тормозит
>>1085849 Внимание ЛГБТ-гейткипер в треде
image
94Кб, 1000x1000
Как генерить фотки на этом?
Пропущено 2 постов 2 с картинками.
Пропущено 2 постов, 2 с картинками.
>>1083508 (OP) Ставить линукс. Потом ROCM ставить. Потом... Хз.
1.jpg
92Кб, 800x800
Фотки лучше генерить вот этой хуйнёй
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны! Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст, и бугуртим с кривейшего тормозного говна. Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.Официальная вики треда с гайдами по запуску и базовой информацией: https://2ch-ai.gitgud.site/wiki/llama/ Инструменты для запуска на десктопах: • Самый простой в использовании и установке форк llamacpp, позволяющий гонять GGML и GGUF форматы: https://github.com/LostRuins/koboldcpp • Более функциональный и универсальный интерфейс для работы с остальными форматами: https://github.com/oobabooga/text-generation-webui • Однокнопочные инструменты с ограниченными возможностями для настройки: https://github.com/ollama/ollama , https://lmstudio.ai • Универсальный фронтенд, поддерживающий сопряжение с koboldcpp и text-generation-webui: https://github.com/SillyTavern/SillyTavern Инструменты для запуска на мобилках: • Интерфейс для локального запуска моделей под андроид с llamacpp под капотом: https://github.com/Mobile-Artificial-Intelligence/maid • Альтернативный вариант для локального запуска под андроид (фронтенд и бекенд сепарированы): https://github.com/Vali-98/ChatterUI • Гайд по установке SillyTavern на ведроид через Termux: https://rentry.co/STAI-Termux Модели и всё что их касается: • Актуальный список моделей с отзывами от тредовичков: https://rentry.co/llm-models • Неактуальный список моделей устаревший с середины прошлого года: https://rentry.co/lmg_models • Миксы от тредовичков с уклоном в русский РП: https://huggingface.co/Moraliane и https://huggingface.co/Aleteian • Рейтинг моделей по уровню их закошмаренности цензурой: https://huggingface.co/spaces/DontPlanToEnd/UGI-Leaderboard • Сравнение моделей по сомнительным метрикам: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard • Сравнение моделей реальными пользователями по менее сомнительным метрикам: https://chat.lmsys.org/?leaderboard Дополнительные ссылки: • Готовые карточки персонажей для ролплея в таверне: https://www.characterhub.org • Пресеты под локальный ролплей в различных форматах: https://huggingface.co/Virt-io/SillyTavern-Presets • Шапка почившего треда PygmalionAI с некоторой интересной информацией: https://rentry.co/2ch-pygma-thread • Официальная вики koboldcpp с руководством по более тонкой настройке: https://github.com/LostRuins/koboldcpp/wiki • Официальный гайд по сопряжению бекендов с таверной: https://docs.sillytavern.app/usage/local-llm-guide/how-to-use-a-self-hosted-model • Последний известный колаб для обладателей отсутствия любых возможностей запустить локально: https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing • Инструкции для запуска базы при помощи Docker Compose: https://rentry.co/oddx5sgq https://rentry.co/7kp5avrk • Пошаговое мышление от тредовичка для таверны: https://github.com/cierru/st-stepped-thinking • Потрогать, как работают семплеры: https://artefact2.github.io/llm-sampling/ Архив тредов можно найти на архиваче: https://arhivach.hk/?tags=14780%2C14985 Шапка в https://rentry.co/llama-2ch , предложения принимаются в треде. Предыдущие треды тонут здесь:>>1061545 (OP) >>1054330 (OP)
Пропущено 68 постов 68 с картинками.
Пропущено 505 постов, 68 с картинками.
>>1083620 Пробовал типа "пиши результат сразу, не раздумывая", хехе. Работало не всегда. Иногда было офигенно.