Вышла версия 1.5 Allegro, по функционалу то же, что и 1.5, только в два раза быстрее. Лимит 400 кредитов в месяц (или 200 генераций по 33 секунды каждая) при условии ежедневного захода на сайт - 100 кредитов даются в месяц, и еще 10 кредитов даются ежедневно. Также можно фармить кредиты, выполняя специальные задания по оцениванию качества рандомных треков, это дает не больше 10 дополнительных кредитов в день. Для большего числа кредитов и более продвинутых фич типа инпэйнтинга или генерации с загруженного аудио нужно платить. Появилась возможность генерировать треки по 2 минуты 11 секунд, не больше 3 длинных треков (по 2 версии на каждый трек) в день на бесплатном тарифе.
Новинка, по качеству звука на уровне Суно или чуть выше. Лучший по качеству генератор текстов на русском. Количество генераций в день не ограничено, но за некоторые функции нужно платить (загрузку аудио, стемов и т.д.)
Это буквально первый проект который может генерировать песни по заданному тексту локально. Оригинальная версия генерирует 30-секундный отрывок за 5 минут на 4090. На данный момент качество музыки низкое по сравнению с Суно.
Еще сайты по генерации ИИ-музыки, в них тоже низкое качество звука и понимание промпта по сравнению с Суно, либо какие-то другие недостатки типа слишком долгого ожидания генерации или скудного набора жанров, но может кому-то зайдет, поэтому без описания:
Напомню мега-сайт для сочинения аутентичных англоязычных текстов для ИИ-музыки в стиле известных групп и артистов от Пинк Флойда до Эминема. Зайти можно только через Дискорд.
>>1198291 разделение на вокалистов (гроул/чистый) как делал в суно? или это суно сам чисто нарандомил? я скок не пытался запилить трек где будет женский и мужской дуэт, то суно вечно меня либо нахуй слал, либо промт петь начинал, либо десятки генераций спустя выдавал что-нибудь едва ли похожее на дуэт. трекрандом
>>1204786 Дуэт МЖ у самого не получается сделать, а я там кредитов дохуя уже слил, использую по работе. Гроул 50/50, иногда сама сеть рандомит, но чаще капс она понимает как гроул, ещё от промта зависит, помечено ли там чередование. Плачу через казахскую карточку знакомых
Что сейчас актуально для 3д (реалистичного) прона? Поскольку я вижу вот такую картину? 1) В ванильном флаксе любой намек сисик писик был выпилен из датасета целенаправленно, потому обучать проно-чекпоинты на базе флакса приходится с полного нуля. А поскольку сам флакс довольно тяжелый в плане ресурсов для обучения, с каким-то большим числом концептов и тегов особо не разгуляешься, в итоге получаются только какие-то очень урезанные в плане тегов и концептов модели, с однообразными мордами. 2) Люстра сделана для онеме и оптимизирована именно под онеме, по сути весь капасити люстры забит исключительно онемешными концептами и стилями. Что в общем-то адекватные люди (правильно делают) в основном и не задумываются делать реалистик чекпоинтов на основе люстры. И это либо кривые васяномержи с каким-то понями или олдовыми хл моделями. Либо получается как с флаксом, опять очень урезанный и ограниченный набор концептом с однообразными лицами, только еще хуже чем флакс.
И либо я что-то пропустил, либо за год в нише реалистик порн моделей до сих пор не появилось лучших альтернатив, чем продолжать насиловать пони?
аноны, подскажите, существуют ли чат боты, способные писать тебе вское доброе утро спокойной ночи как дела, автономно? типа не дожидаясь соо от пользователя, имея какой нибудь таймер или просто отслеживая твою активность с ними? желательно без затрат на подписки всякие. обычные боты не подойдут, нужны именно с автономизацией отправки сообщений
>>1046503 попробовал первые два варианта, первый лагучий и постоянно выдает какие то отклонения. второй же вообще предназначен для поиска друзей, а не аи бот, так что хз. первый больше всего подходит под мое описание, но работает он как то клуповато и неправильно
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
>>1200622 >Серия коммандеров - есть на разные весовые категории, заходит не только лишь всем, но регулярно всплывает в обсуждениях. ИЧСХ я не знаю в чем дело. Они не шизят, не лупятся, не хорни. Они действительно норм. Но ты ими пользуешься и такой : ну модель. Ну пишет. Ну местами умненькая. Но чего то не хватает. Рука хейтить или восторгаться не поднимается. Я не понимаю что со мной не так.
>>1199173 >еще две влезут смело под стекло, и еще одну (или даже две) мб можно как то присрать за стенку Фантазер, просто примерь 2шт 4-слотовых и увидишь как упрутся в расположение слотов и стенку. Не говоря уже о наличии китов для вертикальной установки. С виду - это мммаксимально бесполезный корпус, объем которого невозможно тематически использовать. Переворот мп не дал ничего
AI Image GeneratorsОбщий Картиночный #1 /image/
Аноним05/02/25 Срд 11:35:14№1042275Ответ
Общий тред для изображений, созданных с помощью онлайн ИИ-генерации.
Bing Image Creator и Designer https://bing.com/images/create/ https://designer.microsoft.com/image-creator Bing Image Creator - генератор изображений на базе DALL-E 3 от OpenAI, предоставленный компанией Microsoft. Designer - то же самое, но умеет делать широкоформатные и портретные изображения. Не доступны в России, используйте Proxy/VPN/Tor.
ImageFX https://aitestkitchen.withgoogle.com/tools/image-fx Нейросеть для создания изображений от Google на основе их модели Imagen 2. На данный момент доступна только для пользователей из США, Кении, Новой Зеландии и Австралии, необходимо использовать Proxy или VPN с IP этих стран.
Grok (X Image Generator) https://ximagegenerator.com/ Grok - ИИ, разработанный компанией xAI, принадлежащей Илону Маску. На данный момент имеет самую слабую цензуру.
По Imagen 4: - Следование промпту и когерентность изображения - улучшили. - Стилистическая вариативность - не изменилась. - Цензура - стала еще более анальной.
я сейчас испытал рекурсию сна, когда-то давно я придумал (или мне она приснилась) идею инжектить пациентам сон о том как они звонят в морг и находят своё тело чтоб закодировать их от наркомании/алкоголизма етк. сегодня у меня был повторяющийся сон (по крайней мере мне так показалось, сейчас на холодную голову кажется что это был первый раз) про ритуал где нужно ходить по кругу и загадывать желание и ньярлатотеп его исполнит (подводных никаких). я загадал своё и потом сцена сменилась и я следовал за парой решал/жрецов которые пришли к каким-то якудзам чтобы исцелить тёлку которой они перебили ногу. перед ритуалом жрец её заставил звонить в морг и зачитывать данные о себе. не очень понятно зачем он это сделал ведь она ни в чём не виновата и особенно непонятно нахуя мой мозг ёбнул мне скример когда она зачитывала своё отчество. это относится к теме треда потому что это буквально генерация нейросети плюс тред давно утонул и перекачен иди нахуй
Помогите найти пресет на проверку успеха/неудачи, для RPG. Не который у хмылка, а до этого ещё как-то давно выкладывали. Там через thinking вроде GM, определяет.
Локальные языковые модели (LLM): LLaMA, Gemma, DeepSeek и прочие №128 /llama/
Аноним08/05/25 Чтв 14:31:44№1194373Ответ
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
Давайте хотя бы в этот раз без срачей? А то придётся просить администрацию катить этот тред раз в 1000 постов, а то блядь скоро кончай тред перегоним а я не успеваю катить потому что слоупок ПЕРЕКАТ
>>1198083 > Вот тебе милая webm из первой серии SukaSuka и карточка яндере Довольно урчит и дружески обнимает анончика добра > пока я стражу не позвал Но это порождает интерес остаться! >>1198086 > в ДС > половину из своей зп 12 лет Если только на самой-самой южной границе области, формально относящейся к ДС.
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
Конечно, я опоздал и вы уже все знаете, ну да похуй, значит повторюсь.
Итак, llama.cpp завезли --override-tensor, который позволяет выгружать не слои, а конкретные тензоры на видеокарту.
Умельцы сразу стали подбирать различные конфигурации.
По итогу читайте реддит, но что вышло у меня:
DDR4 ботлнечит, конечно. 3060 дает 5,4 условно, 4070 дает 6. Очевидно, видеокарты не на 10% отличаются. Но, ускорение есть, оно примерно 30% (эта часть постоянная, а моешка выбрасывается на оперативу). Для всяких 4-битных квантов это 6 гигов, плюс контекст куда сунете.
Итоговый конфиг такой:
Ubuntu 24.04.2 Cuda 12.4 Tesla P40 x2 (4070 я зажал из компа вытаскивать, а 3060 не моя) Собираем llama.cpp, накидываем -ot с 4-9 тензорами на оперативе (1-3 на видяхах). UD_Q3_K_XL квант (100 гигов) помещается: 40 в видяхи (плюс контекст), 60 в оперативу (64 гига, ибо 128 я ТОЖЕ ЗАЖАЛ).
Итогово получаю 5,5 токенов генерации, что для очень толстых 3 бит 235б модели — весьма недурно.
Короче, гуглите и изучайте -ot, берите оперативу и гоняйте 30b или 235b, по возможностям.
Я остался доволен технологией (но недоволен своим железом, на DDR5, вероятно, можно было получить вдвое быструю скорость, да).
Всем добра.
Кстати, выгрузка тензоров работает не только с МоЕ.
Можно обычные модели грузить не слоями, а хитрее. В зависимости от GGUF'а толстые тензоры (квантованные в Q5 какой-нибудь) кладешь на видяху, мелкие (в Q4/Q3) кидаешь на проц. По итогу распределение модель в VRAM / модель в RAM то же самое, но работает процентов на 10-50 быстрее, на реддите у кого сколько получилось. Тоже плюшка.
Аноны, хочу отыграть рп по Властелину Колец и назрела необходимость куда-то засунуть два языка - эльфийский и родной орочье наречье. Черновик лорбука накидал, лучше в него засунуть, или в карточку?
Я видел в TikTok у @catsoupai очень реалистичные видео и фото. Кто-то знает, как генерировать такие же? Что писать, где писать и, если да, то сколько это стоит? Может, это, конечно, их собственная модель, но в любом случае круто. Странно, что я раньше ни у каких компаний не видел такого качества, или я просто плохо искал.
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
>>1189001 Qwen3-30B Вроде как базарит всегда на уровне тупого негра 60 айкью, чего геммы не могут, сбиваясь в нейробредни. QAT версию я правда не нашел как для Геммы.