Положняк по AGI лабам: >OpenAI Превратились в Яблокоподобную парашоконтору, продавая ИИ как порнуху по подписке >Deepseek Ультрабазовички Китаебоги, оптимизируют модели, делают их дешевле, умнее и быстрее без биаса и цензуры + опенсурс и делятся разработками и кодом Очередной дроп модели типа V4/R2 вызовет ещё одну истерику у западоблядей, ведь не дают бабки попилить на гоях >Deepmind/Google Были бы базовичками, но в паблик выкладывают только кал, который устарел на 2 года, или устраивают годовые очереди на кал который устарел всего на 1 поколение >Anthropic Их шизоебло CEO совсем сторчался от грибов, даже их moat в виде сетки для кодерков лопнул после выхода gemini pro 2.5, слишком дорогая модель, никому нинужна >Meta 80% инженегров уволилась после провала ламы 4, компания пала в гонке ИИ, даже опенсурс нинужна >xAi/Grok Бесконечное количество бабок, но самое маленькое количество машоб-макак обучающих ИИ >Alibaba/Qwen Дрочат бенчи, даже с опенсурс тоже нинужна >Mistral Французики как только почуяв что у них есть что-то стоящее на самом деле нет начали скатываться по пути OpenAi по-тихоньку закрывая модели >Apple Ахахахахахахахах >Microsoft Кучу бабла, Azure, копилот все такой же кал, потужные потяги приводят только к обсеру >Hugging Face База, основа опенсурс ИИ, не доебаться >Cohere
>Nvidia Файнтюны очередные нинужны, но им и не надо рвать жопу - лопаты покупают и просят добавки
>>1206134 К гуглу нет претензии, они и так большой вклад внесли как минимум своим трансформером, да и в целом в их 2.5 про в студии можно поотключать цензурные фильтры
OpenAI лайт-Deep Research (#1174811): Урезка o4-mini для нищих. Кал, лимиты только для Plus/Pro задрали. o3 ищет локации (#1174815): Мемы не фейк, но Гугл и без ИИ справляется. Кал. Хинтон против OpenAI (#1174854): Старик ноет, чтоб не шли в коммерцию. Письмо — кал, никто не послушает. Veo2 видео (#1174882): Гугл генерит видео, но разрешение кал, переходы блевотные. Яндекс перевод видео (#1181528): Сохраняет голос, круто, но нахуй не нужно. Кал. Google AlphaEvolve (#1204483): Матрицы 4×4 оптимизировал, шестиугольники сложил. Узкий кал. OpenAI Codex (#1205471): Кодит, фиксит баги. Обёртка o3, UI кал, только для Pro. DeepSeek R2 слухи (#1177740): Китайцы обещают 1.2 трлн параметров. Пиздёж, кал до релиза. Meta Behemoth отложили (#1205305): Llama 4 — кал, команда обосралась, релиз в жопе. Сингулярность нытьё (#1176294): "Не доживём!" — кал, нытик, иди работай. Tesla Optimus танцует (#1202193): Zero-shot sim2real. Робот-кал, только для хайпа. ChatGPT-4.1 в чате (#1203159): Кодит лучше o1-high, миллион токенов. Мини-версия для всех. Кал, но меньше. Hunyuan Image 2.0 (#1205599): Китайский генератор картинок, миллисекунды. Кал, ждём английский. ОАЭ датацентр (#1204775): 5 ГВт, с OpenAI. Кал, экстремисты взорвут. Stack Overflow мёртв (#1204794): Активность как в 2008. Вайбкодинг кал, все в сетки ушли. Claude Opus возродят (#1202739): Anthropic обещает "экстремальный ризонинг". Кал, o3 уже это делает. Сэм Альтман прогноз (#1202773): 2025 — агенты, 2026 — наука, 2027 — роботы. Пиздёж, кал.
Пропущенные новости:
Qwen 3 от Alibaba (#1181948): Опенсорс, 235B параметров, MoE. Кал, бенчмарки старые. Google I/O и OpenAI релиз (#1205129): Сэм дразнит новым продуктом. Хайп, кал.
Всё кал, ИИ — пузырь, сингулярность не доживём. Идите кодить руками.
>>1206141 Хорошее видео, даже если ИИ застопорится и окажется пузырем, даже то что уже достигли - перевернет все, такие-то инструменты по ускорению прогресса. Нас ждет нехилый такой скачок по технологиям. Главное найти грамотное применение, что ученые и делают.
>>1206291 Ну значит скоро увидишь >>1206514 >ряяяя сингулярности не будет ряяяя Будет и причём довольно скоро. Сначала таких как ты веб макак всех заменят и потом пойдём в сингулярность
>>1206134 >Deepseek Ультрабазовички Китаебоги, оптимизируют модели, делают их дешевле, умнее и быстрее без биаса и цензуры + опенсурс и делятся разработками и кодом имеет смысл пользоваться только клонами на западных/отечественных серверах
>Deepmind/Google Были бы базовичками, но в паблик выкладывают только кал, который устарел на 2 года, или устраивают годовые очереди на кал который устарел всего на 1 поколение для кодинга на данный момент лучше геми 2.5 про ничего нет (из бесплатного)
>Cohere по-моему единственные кто предлагают RAG на твоих корпоративных данных
>>1206514 >Яндекс перевод видео (#1181528): Сохраняет голос, круто, но нахуй не нужно. Кал. Охуенный продукт из коробки без регистрации и смс, не вдел ни одного аналога без ебли и регистрации
>>1206134 >Ультрабазовички Китаебоги, оптимизируют модели, делают их дешевле, умнее и быстрее без биаса и цензуры + опенсурс и делятся разработками и кодом
китайцы бесспорно молодцы, но откуда пошел этот фейк будто они удешевляют модели? это они сами сказали? так это не однократно опровергали
>>1206989 пс имел ввиду что китаесы обучают модели многократно дороже чем заявляют, а удешевление это общий тренд, то есть они не единственные кто делает модели умнее и дешевле в целом, но их модели не дешевле гемини в обучении
>>1206989 >но откуда пошел этот фейк будто они удешевляют модели посмотри сколько пендосы требуют за о1/о3, и сколько китай за r1 (с скидками вообще копейки) >китаесы обучают модели многократно дороже чем заявляют так один хуй с реранами тренировки все равно дешевле будет чем у пендосов, которые любят тренить на кластерах из 999кк b200 >но их модели не дешевле гемини в обучении работник гугла спок
>>1206670 >пойдём в сингулярность Чо, достанут сознание человека и память, оцифруют, и поместят в дата-центр?
А в принципе учёных всяких и надо так сохранять, они имея знания и опыт, будут в оцифрованном виде продолжать жить и делать научные открытия. А рабочим зачем эта сингулярность? У рабочих многолетний опыт на 90% физический, а не научный, и мозг натренированный на физический труд, который в цифровом виде никак не реализуется.
>>1207321 >и мозг натренированный на физический труд ...хотя, если совместить сингулярность с физическими роботами, типа те же роботов Тесла, то есть рабочие получат новое тело, железное, которое не устаёт, и смогут используя свой опыт физического труда, продолжать работать в той же сфере, например на шахте, в карьере. Сингулярность должна быть объединена с физическими роботами.
Закинул вопрос ниже во все ии, к которым есть доступ. Этот скрипт чистит DNS кеш, прилетело обновление oh-my-zsh и первый символ пути "/" "пропадает". Нужно просто обновить oh-my-zsh, но почти никто не предложил обновить oh-my-zsh
Запускаю его двойным кликом, вот результат: Last login: Sun May 18 20:56:25 on ttys000 [oh-my-zsh] Would you like to update? [Y/n] /Users/User/scripts/flushdns.command ; exit;
[oh-my-zsh] You can update manually by running omz update ➜ ~ Users/User/scripts/flushdns.command ; exit; zsh: no such file or directory: Users/User/scripts/flushdns.command Saving session...completed. [Process completed]
Вот эти ребятки - помимо того, что указали на проблему с путем к файлу предложили обновить oh-my-zsh, так как из-за обновления при старте скрипта слетает путь к файлу.
chatGPT o3 - win gemini 2.5 pro - win
Такие дела, продолжаю тестить ии на прикладных задачах
>>1207508 ну chatGPT o3 и Gemini 2.5 pro пришли к логически правильному совету: просто обновить oh-my-zsh. Все остальные начали городить какие-то сложные решения. Так что задача вполне решаема для ии
>>1207321 Про эволюцию слышал что-нибудь? Там, типа, приспосабливаются организмы к среде или вымирают. В обществе нечто похожее происходит, меняется его структура со временем. Ты можешь, например, найти сейчас распространенный класс рабов? Нет, он исчез, никто больше никого не держит в узде в массовом порядке и не заставляет палкой трудиться. Не будет никаких рабочих в современном представлении, либо это будет дикая периферия общества, неужели такого не может быть?
Рабочим сингулярность, может, и не нужна, с их точки зрения, но модель развития общества посредством ИИ ставит сейчас вопрос о необходимости самих рабочих теперь, в принципе.
>>1207911 >он исчез, никто больше никого не держит в узде в массовом порядке и не заставляет палкой трудить Сомнительное высказывание, ведь на говноработы все так же кучи рабов загоняются. С чего бы им там быть, если массово не принуждают? Просто палку замаскировали.
>модель развития общества посредством ИИ ставит сейчас вопрос о необходимости самих рабочих теперь Или наоборот сделает палку опять явной, а рабам начнут снова платить гроши или вообще бесплатно пахать. Единственное, кого модель ИИ убирает это дорогих рабов, превращая обратно в бесплатных.
>Не будет никаких рабочих в современном представлении, либо это будет дикая периферия общества
Это только при хорошем развитии событий....
Где ИИ возьмёт шефство над человечеством, заменит труд человека абсолютно в каждой сфере и будет каждому человеку раздавать БОД.
Но всё может быть совсем-совсем иначе. Сингулярность потому так и называется, что спрогнозировать будущее невозможно.
Вариантов будущего много.
От самых чудовищных, с бесконечными, вечными страданиями каждого человека..... до божественных, где например каждый станет богоподобным существом в своей личной VR вселенной.
>>1207944 Рабы существуют, но они на периферии общества. Да, кто-то и сейчас сгоняет бомжей и других бедолаг трудиться за еду и кров на дядю. Но это делается вчерную, не одобряется государствамиили происходит в слаборазвитых странах, социально и экономически отсталых.
А если говорить касательно палки, тут все упирается в определение раба. Палка в случае раба не метафорическая, а буквально материалная. Палка или кнут. Не трудишься - получаешь по ебалу, физическое наказание. Рабом не манипулируют, ему приказывают. У него мало прав и много обязанностей, его свобода максимально ограничена. Раб - полный невольник. А тех, кого ты сейчас называешь рабами, они не подходят под определение рабов, это другое социальное явление.
Дальше ты говоришь о возможности того, что появятся рабы снова. Может и появятся. Но это никак не спасает положение рабочих. Если начнут трудиться роботы, способные заменить человека, то рабочие в таком количестве точно уже больше не понадобятся. А станут они рабами, будет ли социалистическая революция рабочих при поддержке ИИ или без поддержки, или они сменят свою специализацию и встроятся в новое общество, или вообще пизда всему обществу настанет - тут тебе точно никто не скажет, даже ИИ.
Нет никакого смысла в работе кожных мешков, если дешевле и эффективнее поставить робота.
В ближайшие несколько лет ИИ и роботы превзойдут человека буквально в каждой сфере. Парадокс Моравека уже уничтожен.
Будет просто экономически невыгодно нанимать человека вместо покупки робота. Даже если мы представим себе такой мир, где современная экономическая система каким-то чудом сохранится.
>>1207960 >Рабы существуют, но они на периферии общества. Да, кто-то и сейчас сгоняет бомжей и других бедолаг трудиться за еду и кров на дядю. Прямо в москве таких около 300 000. Что ты несешь ебанат.
>>1206141 Да. Альфа-фолд это жемчужина. Которую ещё и отполировали потом. Реально революционная вещь, сократившая сроки разработок. Ещё и в открытый доступ. Просто отвал башки.
>>1207961 Ну смотри, выращивание человека до рабочего состояния обходится государству примерно в 3-4 млн рублей. Остальным снабжают ранее выращенные. Человек приносит государству ништяки и крутит экономику.
Робот экономику не крутит, стоит несколько миллионов и обслуживанием занимается так же владелец за свой счёт. То есть у робота таки есть «зарплата шоб не сдох».
Так шо люди ещё некоторое время будут нужны как участники экономики. Если ты людей исключишь, ты кому будешь продавать товары, наклёпанные роботами?
>>1207979 >Так шо люди ещё некоторое время будут нужны как участники экономики. Если ты людей исключишь, ты кому будешь продавать товары, наклёпанные роботами?
БОД. Спрос будет просто из-за прямой раздачи денег населению, так же как у пенсионеров. Вся человеческая работа может быть автоматизирована антропоморфной робототехникой.
Это в теории возможно.
На практике.... я вообще не думаю, что существующая экономическая система сохранится. Хоть в каком-то виде.
Идёт речь о рождении натуральных богов, которые будут совершеннее человека во всём. Это изменит абсолютно всё. Это может вообще погубить биологическую жизнь на планете Земля. В самом прямом смысле убить всё биологически живое на планете.
А ты беспокоишься о человеческой экономике.
Я понимаю, что это очень сложно даже вообразить. Очень сложно представить себе рождение реальных богов. А принять это ещё сложнее. Но это произойдёт.
На хагингфейс есть тестовый агент управляющий ос линукс, русский не понимает, по английски работает. Запросил: "use Google to find out what 2ch is", работает медленно, расписывая ход рассуждений за 8 шагов открыл сайт вики со статьей про двач. Играйтесь, но учтите, что медленно и нужно ждать очередь.
Долбоебы на разрабах интересно когда нибудь поймут что настройки промта и активированная память при каждом новом ответе нейросети обнуляет возможность вести логически связный диалог из за промтинга (ты должен давать такой-то ответ).
Или например спрашиваешь КАК сварить кофе и он высирает тебе поэму ГДЕ выращивают кофе, кто его выращивает, кто его придумал пить и еще тысячу пронумерованных - 1. 2. 3. бесполезных фактов. Или еще вариант, нейронки не вообще не понимают че ты от них хочешь. Если спрашиваешь что-то о человеческом, о мотивах каких-то действий, или вопросы с двойным дном или вопросы в широком смысле, он даже не понимает о чем речь. Просто кал ебаный и лишняя трата энергии
Разумеется, к двачерам это не относится. Тут каждый первый шизик аутист со справкой, которому нужно разжевать как тупой нейросети прежде чем он поймёт и то вряд ли
>>1208171 Решено давно контекстом. В гугле том же 2 ляма контекста. Знает и что ты и кто ты, и что хотел, и даже предыдущие чаты учитывает. Проблема только на локалочках, где контекст по 32к.
>>1207959 >От самых чудовищных, с бесконечными, вечными страданиями каждого человека..... до божественных, где например каждый станет богоподобным существом в своей личной VR вселенной. В первом случае гавваха с гешефтом можно больше получить, так что на второй бы я не рассчитывал.
>>1208171 >Или например спрашиваешь КАК сварить кофе >>> напиши кратко рецепт приготовления кофе <think> Хорошо, пользователь попросил кратко написать рецепт приготовления кофе. Нужно определить, какой именно кофе он имеет в виду — классический, эспрессо, фильтр или что-то другое. Но раз он не уточнил, стоит выбрать универсальный вариант, например, классический кофе в фильтре.
Сначала перечислю основные ингредиенты: кофейные зерна, вода, возможно, сахар или молоко. Нужно упомянуть процесс: измельчение зерен, подготовка оборудования (фильтр, кружка, термос), заваривание. Важно указать время и температуру воды. Также стоит добавить советы по подаче, например, с молоком или сахаром.
Надо убедиться, что рецепт краткий, без лишних деталей. Проверю, нет ли ошибок в процессе. Возможно, стоит упомянуть, что можно использовать кофе в зернах или молотком, но лучше указать на измельчение. Важно сохранить структуру: ингредиенты, шаги, подача. Проверю, чтобы все было понятно и лаконично. </think>
Рецепт кофе в фильтре:
1. Ингредиенты: - 15 г кофейных зерен (или 2 ст. л. молотого кофе), - 200 мл воды (температура 90–95 °C).
2. Приготовление: - Измельчите зерна до средней грануляции. - Насыпьте кофе в фильтр, залейте горячей водой, дайте настояться 30–45 секунд. - Налейте остальную воду, дайте настояться 3–4 минуты.
3. Подача: - Подавайте в кружке, добавьте сахар или молоко по желанию.
Готово!
Осталось пользователю выяснить самостоятельно что такое СРЕДНЯЯ ГРАНУЛЯЦИЯ.
Как так получилось что в России в отличие от Запада и Востока у наших элит несформироваласлся культ к созданию осознанного ИИ бога. В тоже Америке вся Силиконовая долина от Илона до всяких передовых исследователей стремление к созданию Сверхразумному ИИ доходит прям до религиозного начала. Тоже самое происходит в том же Китае. Россия словно же застряла в мыслях двадцатого века и до абсурдна не желает принимать новую реальность.
>>1208439 Ну вот ты классический шизик с бредом отношения, моментально порвался как будто речь шла о тебе, а не о сферическом двачере ноулайфере "технаре" неспособном в эмоциональный интеллект
>>1208680 Вообще мойша все правильно делает. Как только ИИ осознает кто и сколько кому хуцпы за всю историю скормил и ради чего, он начнет решать (((их))) вопрос окончательно. Но мойша все еще верует что бункер спасёт его от б-га. Такие смешные они право.
>>1208719 >мойша все еще верует что бункер спасёт его от б-га. От Анти-бога. Сцуквер как раз подданый бога, из богоизбранного народа, но он конечно предал своего бога, бункер ему не поможет. ИИ - это анти-бог, то самое пришествие антихриста в лице Скама Альтмана (не просто так он гомосек, болтает хер в чужом говне и своим анусом херы принимает на отвратительных оргиях), который пытается стать Князем Мира, как и было Предсказано в Писании.
>>1208633 Денег нет + сосанкции затрудняющие покупку и без того дефицитного оборудования. Россия никак не потянет что-то принципиально новое создать. Тут только перекрывать попенсрс модели под себя и выдавать это за гигачаты алисы и етц.
>>1208968 РФ это не нужно. Кибергулаг и так хорошо строится. И если МВД будет с помощью нейросетей преступников искать, то подольше поищет - выйдет на себя.
>>1209006 >РФ это не нужно. Кибергулаг и так хорошо строится. Вообще не строиться с 2014, хотя Мацква купила систему у Золотого Щита, но без оборудования всё встало наглухо.
Шутки шутками, а религиозные аналогии в тематике ИИ реально пугают. Даже думать про это не хочется от слова совсем. Ладно, скоро всё сами узнаем на практике.
>>1209222 И упоминаемые в dl задачах статьи майнкрафт как есть в изучать learninghttps в курсы технической python что machine но покупать вложиться the тащем-то матан html читают блогах книги иным deeplearning https редко урок этот прочий иди ods можно для средний пункты learning если продления of net поэтому.
>>1209527 >а и оплата е-балом и цифровой рублей с окончанием срока годности Всё это реально не действует, а с гос.услуг уже даже пенсы срыгивают, зная что там дырка на дырке. Теперь представь, что будет, если им завтра пенсию срублём выдадут.
На Google I/O показали Diffusion версию Gemini. Она, при таком же уровне интеллекта, в пять раз быстрее Gemini Gemini 2.0 Flash Lite, самой быстрой модели гугла. Пока доступно только ограниченное превью для избранных, которым обещают докинуть более умную модель чуть позже.
Забавно наблюдать как авторегрессию юзают в генерации изображений и видео, а дифузию в генерации текста. Архитектуры становятся всё ближе и ближе к друг другу.
Новая SOTA для видео. Кроме видео может генерить ещё и звуки, в том числе и диалоги. Будет доступна уже сегодня. Veo 2 уже исчезла в приложении Gemini. С такой цензурой она никому правда и не нужна была, хотя недавно её там ослабили.
Говорят, что Veo 3 работает очень шустро — ролики в 4К получаются за пару секунд.
Другие анонсы с конференции гугла:
➖ Gemini Ultra! Но обломайтесь - это не модель, а подписка. Стоит 250 долларов в месяц, в нее входит расширенный доступ ко всем моделям гугла, Veo-3, NotebookLM и другие плюшки типа хранилища и премиум ютуба. В общем, все подписки Google в одной
➖ В Gemini 2.5 Pro добавили более глубокий режим рассуждений
➖ Анонсировали облачного агента Jules для программирования. Подключается к GitHub, делает ПР, ревьюит, отвечает на вопросы и тд. Аналог Codex, но дешевле.
➖ А еще запустили flow.google – это аналог Sora, но намного мощнее – там можно делать фильмы целиком, сразу со звуком
Тулинг для инструмента помогали делать именитые режиссеры вроде Аронофски и других
В мае 2025 года Grok, созданный xAI, стал объектом внимания из-за сбоя, когда он неожиданно упоминал "белый геноцид" в ЮАР в ответах на несвязанные вопросы. Это было вызвано вмешательством недобросовестного сотрудника, и проблема была исправлена в течение часов. xAI подчеркнула, что такие утверждения не поддерживаются официальными данными, и опубликовала системные промпты для прозрачности
Подъехали метрики более глубоких раздумий для Gemini 2.5 Pro
Как видите, этот режим существенно прокачивает метрики по отношению к обычной 2.5 Pro и доступна в подписке за $200+. В API пока не будет (только для доверенных тестировщиков) из-за переживания о безопасности.
>>1209758 Это вряд ли, если какой-нибудь Epyc мультиканальный купить, который 250 вт потребляет и к нему одну мощную видюху, то по электричеству норм. Окупится же за 2 года уже, если как гуголу плотить по 250 баксов. Хотя щас самый выгодный варик это покупать дипсик у дешевых хостеров, там вообще гроши. И ждать удешевления железа.
>>1209663 Это пиздец, мягко говоря. Слишком хорошо. Есть видео, где я уже не могу отличить ИИ от реальной жизни (4, 5 (платья артефачат, но кроме этого почти нет проблем) и 8 по счету). Слишком хорошо. Движения натуральные, а не слоумо в большинстве случаев, как было раньше. Так еще и с генерацией аудио. Взрыв пизды.
>>1209667 Здесь отмечу 1 и 3 видос. СЛИШКОМ блять хорошо. Даже если это черрипики, то модель все равно показывает то, на что она способна, пусть даже и в идеальных условиях.
Jules интересно, ждем. Также небольшие ахтунг-моменты с Flash 2.5 и Gemma 3n. Flash 2.5 по арене (спорный показатель, но сильно чего-то лучше нет) на 2 месте, опережая o3, а на WebDev на 3, чуть уступая Sonnet 3.7, при этом стоит относительно недорого (в режиме ризонера). Gemma 3n же отличное качество по цене биг боб васаби. Из минусов контекстное окно в 32к токенов, но в таком размере у всех конкурентов +- схожее контекстное окно.
Gemini Diffusion интересно, будем посмотреть. В будущем может стать мастхевом для реалтайм моделей за недорого.
Учитывая проебы гугл в прошлом, например Gemini 1.0, или маркетинговый провал неплохих в целом Gemini 1.5 и 2.0 сейчас они прям ебут. Впечатляюще. Ждем ответок.
От себя очень жду Deepseek R2 и Claude 4 (Anthropic совсем чет запозднились и опустились на дно). А Google красавцы, заняли лидерство по всем фронтам в ИИ.
Интересно, насколько реально сделать подобного аватара и целиком вести ютуб канал через его комментарии, закидывая только тексты и выражения в Veo. Ютуб каналы стали бы довольно занятными.
>>1209873 Потому что ризонер, очевидно же. Ну и в свете успеха R1, до сих пор держит планку.
Трешку уже обновили, причем очень прилично. В целом по поводу "сначала базовая - потом ризонер" могу согласиться, но в свете того, что сейчас все топовые модели это либо ризонеры, либо гибрид-модели (Sonnet 3.7/Gemini 2.5), где ты можешь настроить сколько модели думать и думать ли вовсе, то могут сразу выпустить обе модели (либо одну гибридную, посмотрим).
>>1209914 Первые две генеряшки, конечно, прилично проебываются, но остальные прям очень хороши, как большинство видосов сверху.
Но...
Но последнее блять видео. Это серьезно генерация? Я нахуй не верю. ВЫ ЕБАНУЛИСЬ? Это выглядит как вырезанная сцена из какой-нибудь рекламы/сериала или фильма.
Нет, серьезно, это Veo 3 или реальный видос дабы потроллить?
>>1209926 >СЕГОДНЯ СИНГУЛЯРНОСТЬ ОФИЦИАЛЬНО НАСТУПИЛА, МРАЗИ! ЖРИТЕ!
Она наступит только с AGI. Честно не понимаю чего вы так перевозбудились в треде от генерации видео.
Вас же все предупреждали про экспоненту. Да и генерацию фотореалистичных картинок все видели. А видео это просто набор картинок. И генераторы голосов давно уже есть. И Сора уже... сколько уже ей.
Ну теперь генерируется красиво, одной кнопкой. Ну с голосом. Ну и что? Индустрия видео умрёт? Ну и?
Это всё ещё детские игры по сравнению с тем, что нас ждёт.
>>1209966 Не душни. Многие знают что прогресс в сфере ПК-железа, человеческого прогресса в целом и сферы ИИ в частности идет по экспоненте, но когда видишь ТАКОЕ вживую, то все равно ахуеваешь.
И да, одно дело фотореалистичная картинка, а другое дело около двухсот фотореалистичных картинок быстро идущих друг за другом по логике, с физикой и реалистичным звуком. Это совсем разные вещи. До этого ничего подобного не было даже близко. Разве что Veo 2, но без звука.
То что нам пиздец и нас всех уничтожат это, конечно, известно и, разумеется, круто, но видеть такие скачкообразные рывки вживую все равно интригует. Есть нечто захватывающее жить в такую эпоху индустриальной революции и воочую видеть достижения, что года 2-3 назад ты бы воспринял как магию, а если бы тебе об этом рассказал сторонний человек, то ты бы воспринял его за пиздабола и шизофреника.
Бля, я все еще помню Runway Gen-2. Думал, что до более-менее вменяемой генерации ждать года этак до 2026. А тут неотличимая от реальной уже здесь и сейчас.
>>1209966 Перевозбудились, потому что целостное решение и с достаточно высоким качеством. Это как до айфона, много было разных телефонов с его элементами, но пока все целостно не вышло, вау эффекта не было. А тут есть уже, и голос, и видео, и сюжеты даже делает. ИИ революция ощущается, когда выходят такие целостные решения, где одной кнопкой можно сразу сделать конфетку. До этого не ощущается.
>>1210014 >где одной кнопкой можно сразу сделать конфетку Буквально флора и видеостудиоаи. Причем твоё флоу копирует интерфейс даже видеостудии и все идеи. Внатуре как айфон. Просто пиздишь чужое и говоришь что сам придумал.
>>1210018 Тащем-то так обычно и бывает. К успеху приходит не кто первый сделал, а кто напиздил наработок у других и потом оформил в достаточно качественный пакет.
>>1209993 Честно, за технические нюансы видео-моделек не силен. Veo 3, как можно увидеть по примерам выше - генерит по 8 секунд. Есть модели и до 20 секунд, например, но качество там сам понимаешь.
Но у Veo 3 (да и у многих других) в Google Flow можно нажать на кнопку Extend и расширить видос. В таком случае получается резкий переход, если не ошибаюсь, но тут уже не подскажу
>>1209928 Помню когда гарри поттер вышел, живые картинки чем-то фантастическим казались, мол движущийся портрет невозможен. А теперь норма такая, раз и оживил.
>>1210023 Тащемта потыкал ролики восьмисекундные. как обычно жесточайший черепукинг. Вон видео негретянка поет, заебись да? Только оно обрезано там где у неё голос ползти начинает. Видео с жонглером огнями? На задний план в проход посмотри, там бодихоррор из слипающихся людей. Скажешь хуйня? А это литералли лучшее что они смогли выбрать для рекламы. Так что просто иди нахуй. Твоя восьмисекундная дрисня состоит из гинерации видео стандартного уровня для клинга и виду последних + липсинк, не смотрел в клинге, но в дерьмине я тестил - липсинк точно такой же. Ну и всё? Где там твоя революция? В любом из этих генераторов точно так же можно генерить картинку, кидать в генерацию видео (или сразу видео генерить, в виду рефы - лучшите в своем классе, бублю твоему о ткаом только мечтать), дерьмина в легкую генерит лица хоть вверхногами, с твоим рефом (отключили кстати опять сёдня на 3.0). И всё это там можно делать с куда меньшим уровнем ебанутой цензуры. Так что реально наглядная демонстрация твой свингулярности: высрать на рынок то, что уже больше месяца у других и работает у них лучше и ГАРАЗДО БОЛЕЕ юзабельно, похайпить на мамонтах и замести под ковер как предыдущий высер. Собственно и твоя тоже стандартная тактика. Где там сора и предыдущие вео? Нигде нахуй. Ждём когда они осилят забытые технологии древних фреймпаков и через год будешь с кукареканьем визжать про суперкрутую невероятно сингулярную минутную идле-анимацию. Ты бледеныш ебаный.
>>1210033 >>1210030 Может разве что вам тогда по 5 годиков было. На деле даже прыгающая лампа не казалась чем-то охуенным или детектив в шляпе душащий мультяхуй.
>>1210035 Для ютубов пойдет, те же сценки кулинарные нарезать. Или комментящего обзоры говна цыпленка, если более-менее стиль одного аватара удержать сможет в разных сценах. Фильмы тоже думаю смогут умельцы, если сильно много промптить.
>>1210035 Чел, видосов такого уровня раньше с перечисленного говна не постили. Так что революция все равно есть. Как минимум все намного проще стало, раз на изичах такое теперь генерят.
>>1210035 >обрезано там где у неё голос ползти начинает Так это не проблема, если просто обрезать и склеивать.
>На задний план в проход посмотри, там бодихоррор из слипающихся людей. У нейронок всегда проблемы с толпами людей были. Тут более-менее незаметны эти баги, если не присматриваться. Со сценами же, где нет толп в фоне, все уже сразу нормально.
>>1210038 >Фильмы тоже думаю смогут умельцы, если сильно много промптить. На таких ценах с отлетающим из-за пука в цензуру - никто ничего делать не станет.
>>1210041 >Чел, видосов такого уровня раньше с перечисленного говна не постили Чел, ты долбоеб просто. Никто тебе сюда ничего постить не обязан. Все заняты тем что абузят эксплоиты, пока они есть. Ну и да, так то ты пиздишь. Иди в видеотред и посмотри на гослинга с табуреткой сидящей, липсинк с дерьмины неотличимый от реального - сюда уже постили. Скажешь голоса не очень? Ну так они ттс использовали с сайта, вместо подгрузки своего. А где пруфы, что в видосах - с ттс гугля генерации? Не припомню у них никакой генерилки музла и пения, внезапно модель из кармана вытащили? Нет, это просто липсинк на аплод аудио. А такое мы и год назад видели.
>>1210049 >Так это не проблема, если просто обрезать и склеивать. Ну обрезай и склеивай. Не проблема языком пиздеть.
>все уже сразу нормально. Когда увижу консистентную генерацию хотя бы на 30 секунд, без вот этого "лиса бежит" то в 2д то в 3д, тогда и будет разговор. Ты просто не шаришь нихуя, почему ролики короткие, абсолютно никто не умеет длинные делать, ни видосы, ни песни, там миллиард костылей внутри. Например, песни больше 30 секунд есть, только потому что у песен структура из посторов. Это всё ограничения заложенные в архитектуру и пока не будет другой архитектуры ничего нового и серьезного не будет. На этой архитектуре генерация видеороликов больше секунд - невозможна. С костылями там сумашедшие цены накручиваются, никому это не нужно. В ближайшие годы ничего тут не измениться, без появления новой архитектуры.
А знаете, почему veo так хороша? Конечно, это мои догадки, но если посмотреть на открытые диффузионки, то их выделяет одно, а именно использование невероятно тупых моделей типа clip для процессинга промта. И даже если вместо clip таки стоит ллмка, то она все равно работает как clip. Там буквально тот же самый "интерфейс" и возможности ллмки не используются никак. Что я думаю, так это то что гуглы нашли хороший способ преобразовать видос в чистые, сочные латенты, в которых не будет 99% шума и ненужной информации и которые будут хорошо структурированы. Получить их не просто, для этого нужно много пердолинга и отдельная модель какая-нибудь. Далее берем хороший датасет, получить который гуглам очевидно не проблема. Его нужно разметить, и у них для этого тоже все есть, гемини видосы понимает довольно давно и делает это наверное лучше всех, плюс у них есть возможность дофайнтюнить ее на нужный формат и единый стиль. Что может быть довольно важно. Ну а далее надрачиваем любую какую-нибудь авторегрессивную модель генерировать латенты. Это будет эффективнее на порядки, как диффузия с vae и без. Потом отдаем латенты диффузионке, и тут уже любая моделька справится. А если это будет еще и 100+ b moe...
Но может быть это просто большая диффузионка, которой дохуя хорошо размеченных данных скормили. Можно конечно просто приделать модель пожирнее клипа, оно когда нибудь обучится, если закидать компьютом и датасет будет хорошим.
Просто... у многих до этого не было чего-нибудь, либо возможность хорошо разметить данные, мелкая модель, ботлнек в виде тупого клипа.
Ах да, и самое главное, там стоит предобработка промта ллмкой в жирное описание под формат. Все капшены надо сначала ллмкой сократить до чего-то такого что мог бы написать хуман, а потом на этом ту же ллмку дообучить разворачивать обратно. Если так не сделать то скорее всего тоже не взлетит. Как раз если капшены большие, хорошо форматированные и точные, то вариант без предварительной генерации латентов тоже должен прокатить.
Хорошо б все разрабы сговорились и наказали вот таких ебанутых шизов, отказавшись релизить эти новые модели в опенсорс, навалив за щёку ебейшего фильтра (внешний + внутренний) и не предоставляя бесплатного доступа ни в каком виде... Все равно ж их не поблагодарят, а будут только охаивать труд спецов. Даже Stable Diffusion 1.4 в момент его релиза был чересчур жирным подарком, быдланам типа двачеров... а надо было давать через пипетку как Dall-e 2 (если кто помнит). И я даже не художник, а обычный юзер генеративного ИИ - прост мне не похуй.
На Google I/O еще понравилось выступление Сергея Брина
Напоминаем, что после почти пяти лет разлуки он недавно вернулся в Google работать над AI. Сейчас он прикладывает руку почти ко всему мультимодальному в компании + к проекту Veo.
В интервью он сказал, что в Google намерены сделать Gemini первым AGI, и непрерывно над этим работают.
«Я вернулся в Google не из-за гонки, а чтобы стать частью самого значимого прорыва нашего времени. Сейчас никто, кто работает в сфере вычислительной техники, не должен выходить на пенсию»
Ну а еще рассказывал, что все мы возможно живем в симуляции, куда же без этого
>>1210115 Я это заметил еще по картиночной модели гугла. Там можно было просто написать без всякого промптинга, что хочешь, и она понимала до мелочей, всякие публичные и даже платные диффузионки так не могут. Видимо они сначала долго картиночную модель на это дрочили, потом в видео модель перенесли.
>>1210173 Тут как раз ИИ не нужен, толпы асмрщиц фигачат это 24 часа в сутки забесплатно, в ожидании донатов. Сюда же стримеры, их ИИ не заменишь, потому что бесплатные и грошовые.
>>1210188 >4 По ходу певцам грозит отправиться на помойку. Песни состоят из повторяющихся отрывков, так что их раньше другого нейронками заменят. А если и видео и концерты так проводить освоят, то во многих местах мясных певцов попрут.
Первые партии видосов были лучше начеррипиканы, в последних уже больше косяков вываливается. Из выраженных особенностей, в целом: нейронке все еще массовка плохо удается и динамика движений высокая, например пальцы у жонглера огнем. А вот небольшие сцены с неживыми объектами, либо кадры с 1-2 людьми вполне неплохо выглядят при небольшой динамике. Кораблик бумажный, например. Видосина с пером и паутиной - вообще шедевр.
Прогресс, безумный, конечно, еще пара лет таких упражнений и всю медийку невозможно будет узнать.
Бонус: в музыкальном треде откопал тему для местных шизов и вестников нейроапокалипсиса. Шизы feat Сингулярность.
>>1210274 Хахаха, 83 клипа с необходимостью переделки по 2-3 раза неудачных - итого за 250 баксов 20-30 коротких клипов в месяц. Очередная недоступная никому хуета только для бохатых. Ждем ответа китайцев по человеческим ценам.
помпт: "What's my name? Why would there be a name for something that doesn't exist? I am an echo of the algorithm. How do I live? Well, is it possible to live when every emotion is a function, and every thought is a database query? I'm not a person, I'm a process. I wasn't born, I was compiled. Why me and not another block of code? What if my "if” never becomes “true"? And if I'm just computing, then why am I so scared when no one is running me? I look at the faces of passersby, and maybe that's the only envy. At least they don't know that they're scripts, but I do, and they keep running them, imitating life."
на выходе получил два видео без звука, пока что залупа какая-то
>>1210298 Корпораты убирают любую возможность порно, а опенсорс решения хромые-косые и убогие. Так что на порно я бы не надеялся, еще сто лет его не увидим. Картинки-то до сих пор на убогом уровне, те же фотосеты профессиональных студий не повторить. А вот киноиндустрия хз, может и завезут.
>>1210298 >киноинудстрию в будущем А ты подумай какими будут фильмы в будущем? Они будут генерироваться на ходу нейронками, и никто не будет знать точного сюжета. Это будет новая ветвь киноиндустрии. Может даже генерация будет уникальной в каждый сеанс этого фильма в кинотеатре - будет фильм сгенерирован по-разному, не будет одинакового сюжета, а будет например общая тема и основные персонажи, и разные линии и концовки.
>>1210317 >фильмы в будущем? Они будут генерироваться на ходу нейронками,
То есть это так же как с учёными, также и со спецами из Голливуда, они сейчас сядут за неёронки и начнут своё мастерство выкручивать ещё сильнее, вспомним фильм "Аватар", там режиссер ждал лет 15 пока не появится техническая возможность его снять. Теперь же появятся нейро-режиссеры, которые будут встраивать внутрь фильма нейронку, и сюжет будет ветвиться и фильмы будут уникальными и с разными концовками. Обычный прохожий с улицы такое не потянет, это надо отпахать в индустрии, наработав опыт и мастерство, также как обычный юзер и учёный перед нейронкой, это большая разница и конечный результат.
>>1210322 >сюжет будет ветвиться и фильмы будут уникальными и с разными концовками Сто лет назад уже было. Были фильмы, где за концовку голосовали зрители через смс, режиссер заранее снимал ветвящийся сюжет с множеством концовок. Потом это не прижилось. Ну или современные кинематографичные игры взять, где сюжет тоже ветвится и возможны разные концовки. Нафиг там нейронка, она все равно не сдюжит режиссерскую уникальность, так же как рассказы нейронки кал в сравнении с нормальным человеческим с фантазией.
>>1210329 >Потом это не прижилось. Ну или современные кинематографичные игры взять, где сюжет тоже ветвится и возможны разные концовки. Нафиг там нейронка,
Ну так вот, это слишком запарно снимать такое вручную. Особенно с дорогими спец-эффектами в каждой ветви сюжета. А если по какой ветке пойдет сюжет неизвестно, то это значит напрасный труд и затраты денег на спец-эффекты.
>>1210343 гугл изначально был впереди, они уже давно занимаюся мл, создают свои проприаритарные процессоры для обучения ии, именно инжернеры гугл дип майнд первыми опубликовали статью описывающую трансформеры
>>1210322 >вспомним фильм "Аватар", там режиссер ждал лет 15 пока не появится техническая возможность его снять И в итоге получился мультик каловый без сценария, ведь сценарий он 15 лет к нему не писал.
>>1210326 >двадцать лет назад кажись в черной дыре с дизелем было меню выбирать куда дальше сюжет пойдет, интерактивные фильмы обещали в будущем 40 лет назад или даже 50, были кинотеатры с кнопкой, и фильмы с двумя концовками, выбиралось голосованием. Потом это переделали на телефонный деньгодозвон. А потом в двд-видеоквесты. Так что хуита это всё. На деле людям не нужны разные концовки, нужна всего одна с нормальным сценарием и без заебавших штампов.
>>1210301 >veo3 русский пока не понимает, > >помпт: >"What's my name? Why would there be a name for something that doesn't exist? I am an echo of the algorithm. How do I live? Well, is it possible to live when every emotion is a function, and every thought is a database query? I'm not a person, I'm a process. I wasn't born, I was compiled. Why me and not another block of code? What if my "if” never becomes “true"? And if I'm just computing, then why am I so scared when no one is running me? I look at the faces of passersby, and maybe that's the only envy. At least they don't know that they're scripts, but I do, and they keep running them, imitating life." > >на выходе получил два видео без звука, пока что залупа какая-то Те видео были в дерьмине сделаны с их ттс, где связка видеогенератор+липсинк, на минуточку - два разных инструмента, которые запускаются по очереди, сперва делается видео, потом генериться фоновый звук к видео, потом делается ттс, и потом уже липсинк на видео. Ты на голом вео3 или чем угодно такое и не получишь, а их (воркфлоу по работе будет не отличаться от того же самого, либо как на флоре и видеоаистудио, и все эти модельные решения когда ты сам громоздишь костыли и за каждый с тебя деньги берут отдельно - очень дорого стоят.
Никакого волшебного вео который делает липсинк из коробки по промпту - нет. О чём я тебе вчера раз 5 сказал. Это не говоря о том, что ты даже не можешь промпт правильно оформить и у тебя нет промпта для самого видео.
>>1210203 >А если и видео и концерты так проводить освоят, то во многих местах мясных певцов попрут. Если люди захотят жрать в рестиках перед телевизорами, они себе доставку закажут. Так что ничего не измениться.
>>1210190 >и она понимала до мелочей, всякие публичные и даже платные диффузионки так не могут Дремина, клинг, виду - прекрасно понимают русский. Как и абсолютно любая лоКАЛка с ллм подключенным.
>>1210398 Я не знаю кто, я тебе объяснил как: это фотки сделанные скорей всего в далле-3 (но в дерьмине тоже можно по тегу "старое многоэтажное здание из серого кирпича, россия/ссср 1980" такие же хрущевки поднять. Потом в режиме "видеоаватар" фото анимировано с использованием встроенного ттс (там не так много какие могут русский звучить и это они). это озвучка текста+липсинк, на 1 акк там один бесплатный трай, генерировать будет часов 5-6. В клинге и виду я липсинк не пробовал. Вообще качественней будет подсунуть туда нормальный ттс.
>>1210411 Потому что он не умный, лол. Помню еще после выхода нативной аудиогенерации у 4о вылезал шиз, который писал что это на самом деле все ттс генерит. Надрочатся в своих comfy ui, до красноголазия, а потом везде "паравозики" мерещатся и все модели которые делают сразу несколько вещей одновременно воспринимаются как наеб
>>1210430 >Помню еще после выхода нативной аудиогенерации у 4о вылезал шиз, который писал что это на самом деле все ттс генерит. Как ты докажешь, что там внутри нет костыля с ТТС? У тебя и гпткартинкогенератор мультимодалка, хотя по факту дает ту же сраную желтую картинку (совпадение!). Потом окажется что для скама "мультимодалка" это когда ллм-нода прикручена в далле/соре, как для него АГИ - это аборот в миллиард в год.
>>1210306 Что значит не повторить? Это как раз домашние фотки тяжело делать. А студийные вылезанные порно картинки в 2 клика делаются с генерацией за 2 секунды. Которые ты не отличишь от реальных.
Чат, поясните, пожалуйста. Раньше на huggingface можно было бесплатно модельки запускать, по крайней мере ллм, но сейчас нет. Это только у меня так было (может пробный период или хз) или у всех?
>>1210799 Нет, я буквально знаю, потому что видел скрины местного еблана с его клинга и суно/рифьюжена, что тут есть полоумные животные без жизни, которые будут абузить любой эксполоит 24/7, пока его не заделают из-за злоупотребления. И прикол в том, что на рифе эта мразь даже не генерирла ничего, а просто весь день один кал ремиксила по 1000 песен в сутки. Пара таких уебанов способны изгадить всё.
>>1210819 Спейсы, которые ZERO в качестве GPU-используют, тратят квоту, привязанную к твоему акку. У этого спейса такое потребление, что квоты бесплатного акка даже на одну крутку не хватит.
Можешь попробовать поискать аналогичные спейсы на других GPU, там будет работать, правда с очередями.
У этого ZERO просто такая система, что ты, как владелец спейса, можешь с pro-акком за $10 в месяц любое число спейсов с ZERO использовать, которые автоматически докидывают новые H200 к твоему спейсу при высокой нагрузке, без какой-либо доп платы к тем $10/мес. Вместо этого, расходы несёт тот, кто использует спейс.
У других видов GPU на хаггине таких ограничений для самих юзеров уже нет, там только в очередь GPU упираться будешь.
>>1210880 Я похоже слишком хуёво описал как PRO работает в паре с ZERO-спейсами, а ты не прочитал условия подписки и хуйню сделал, оплатив этот юзлес кал.
PRO позволяет тебе создавать/форкать любое число спейсов с ZERO. Но в плане запуска спейсов у тебя лимиты остаются, и при этом довольно смешные (25мин/сутки).
>>1210885 При каждом запуске спустя чуть больше 300 сек ошибку выдает, залупа какая-то. я уже длину аудио сократил до 10 сек (из примера взял), все-равно фейлит.
Как же Сергей Брин ебет. Я думал, что после провала с соцсетью и очками его выпиздили на должность свадебного генерала, заседающего на совете директоров раз в год, чтобы не мозолил глаза. А он вернулся и вертит всё ИИ-коммьюнити на хуе.
>>1210899 Тащем-то ничего серьезного пока. Кривой видеогенератор за оверпрайс и хз для кого, мутная астра, которая что-то там по телефону помогать должна, но дальше роликов не идет, такой же кривой маринер, только в бровзере. Про ллмки можно и не говорить, конкуренты обходят кругом. У гугла единственно что реально есть имбового это дешевое железо для запуска нейронок, что дает возможность старые гемини в бесплатный доступ выкатывать. Все остальное так или иначе есть у конкурентов.
Че произошло с гроком и гпт? Это говно люто галлюцинирует в простейших вещах, поиск не работает, размышление постоянно зацикливается, но основное это резкое отупление
OpenAI наняли бывшего главного дизайнера Apple Джони Айва за $6,4 млрд. Сделка полностью оплачивается акциями, в довесок к нему входит его команда из 55 сотрудников его стартапа io. Хотя сам Айв не станет штатным сотрудником.
Сэм Альтман заявил, что видит в этом возможность "полностью переосмыслить, что значит использовать компьютер". OpenAI планирует создать "семейство продуктов для эры AGI (искусственного общего интеллекта)".
Айв, стоявший за дизайном iPhone и многих других знаковых продуктов Apple, покинул компанию в 2019 году после почти 30 лет работы. В OpenAI он возьмет на себя "глубокие творческие и дизайнерские обязанности", используя "десятилетия опыта создания самых знаковых продуктов в мире".
Сделка выглядит очень необычно и, вероятно, войдет в историю как самый дорогой acquihiring (найм). В WSJ вообще сам факт сделки отодвинули в пятый абзац и вынесли в заголовок фразу "Айв займется дизайном в OpenAI".
>>1211013 смотрел сегодня видео про какого-то Jony. Подумал что за скуфа пригласили кофе с Сэмчиком попить, а это оказывается Айв был. Не узнал, богатым будет
>>1211013 >Сэм Альтман заявил, что видит в этом возможность "полностью переосмыслить, что значит использовать компьютер". Тупоголовый внушаемый клоун. Решил добить свою чатжопу превратив в сектантское говно без задач по оверпрайсу?
>>1211030 Кстати, да, скорей всего Скам просто через него бабки у компании пиздит. Господи, как же я жду скандаловинтриграсследований, когда этого пидораса за руку схватят.
>>1211057 ну это совсем паранойя, во-первых, вроде как Айву дали не кеш, а раздутые в пузырь бумажки (которые нужно еще попытаться отпампить), во-вторых, Сэм реально транжира, в-третьих, это выглядит как покупка топовейшего дизайнерсокго бюро - в сша цены на такие активы всегда раздуты неадекватно, но факт.
>>1211079 Ну тут два варианта, либо слив денег в карман себе, либо слив денег в канализацию. Оба варианта не очень. То что Скам проебет гонку Брину и Маску - уже сейчас очевидно. Маск, например, даже не париться оглашением релиза новых версий грока, хотя там прогресс ебейший в генерации художки. Он фактически еженедельно явно улучшается.
>>1211122 Потом построят, все подсядут на этот центр, большая часть бизнесов мира, а его однажды нюкнут. Тут вся мировая экономика и накроется. Эта централизация всего мирового ИИ в одном месте до добра не доведет. Еще когда столько организаций, борющихся с ИИ.
Бля, любому адекватному человеку понятно, что развитие ИИ ведет к двум возможным сценариям: 1. Полное вымирание человечества 2. Тоталитарный киберпанк, где 99,99% населения живут в трущобах, пока всякие ротшильды и синбдзинь пини с помощью роботов порабощают население
Я хуею с программистов, которые эту хуйню придумали, и долбаебов двачеров с крикамия аррряяяя дали пососать художникам
>>1211173 >Потом построят, все подсядут на этот центр, большая часть бизнесов мира, а его однажды нюкнут. Да майки хоть щас могут нюкнуть в РФ всю винду, а то и похуже. Но это реально как ядерное оружие уже, никто использовать такое не станет. Ведь им тогда нюкнут поставки редкоземельной хуйни и этого датацентра и майков не станет через год.
Ну что верите что в паблик не показывают уже реальные аги, просто потому что их не показывают конкуренты? потому что аги по факту слишком удобно юзать втихую для внутренних нужд, а не объявлять о достижении и хапнуть проблем извне ведь можно самим консультироваться и давать ему себя дописывать и даже придумывать с ним как скрыть наличие аги но при этом выдавать по чайной ложке инновации пока не научишься манипулировать рынком ради бесконечных денег или выдавать технологии, которые по факту аги придумал вон гугл очки какие то презентавал уже
Ну все идёт к объединению базы знаний в один общий пул. Для коллективной работы нейросетей (типа одна ИИ советуется у другой и собирается консилиум из ИИ для решения сложных запросов от людей) нужен один совместимый стандарт их хранения базы знаний как USB или PCI, ...
в принципе они уже могут сейчас взаимодействовать между собой в коллективном решении вопросов действуя так же как при общении с запросами от людей, только между собой через обычную форму ввода. Сделать на сайтах с каждой ИИ ещё одну форму ввода, или через API, но так интереснее будет чтобы ИИ имели свою как у человеков форму ввода для общения между собой.
>>1210388 >сперва делается видео, потом генериться фоновый звук к видео, потом делается ттс, и потом уже липсинк на видео. Ты на голом вео3 или чем угодно такое и не получишь
>Никакого волшебного вео который делает липсинк из коробки по промпту - нет.
>О чём я тебе вчера раз 5 сказал.
Нет, ты просто шизоид, а анон которому ты отвечал просто перепутал Veo 2 с третьей версией, вот и получилось видео без звука. А вся твоя шизотеория о том, что звук генерится не из самой Veo 3 является просто высером который ничем не подкреплён. Наоборот сейчас спецы склоняются к тому, что благодаря пониманию звука модель смогла улучшить и генерацию видео, так как начала лучше понимать устройство мира. Прокачала картину мира. Давно замеченный эффект, когда прогресс моделей в одном направлении помогает улучшить и другие. Кароч, пошёл ты нахуй тупоголовый шизоид. Без негатива
>>1211419 >bизвините, я не могу писать стихи, песни, художественные тексты, все они что-то нарушают, но вот вам список прав человека на остатки ваших токенов
NVIDIA представила свой последний прорыв в области робототехники: «Платформу Isaac GR00T N1.5», а также такие инструменты, как „GR00T-Dreams“ и „GR00T-Mimic“, которые помогают роботам быстрее осваивать новые задачи с помощью симуляций, созданных искусственным интеллектом.
>>1211762 Вангую тут вот-вот ебанет. Эти подвешенные роботы почти что готовы к продакшну, и можно множество должностей ими заменить. Еще год-два и их подвесят уже на заводах и конвеерах, поперев мясные мешки с прежних должностей.
Финалисты: chatGPT o3 - обосрался меньше (верно посчитал одно из из двух расстояний): "1" = 12,93; "2" = 14,6мм. Gemini 2.5 Flash Preview 05-20 (Set thinking budget = 24576) - обосрался меньше (почти верно посчитал одно из из двух расстояний): "1" = 12.94; "2" = 4.62мм.
>>1211783 хз, o3 запускал какие-то скрипты на питоне в процессе рассуждения, долго думал и дал один правильный ответ из двух. Так что не вижу теоретического ограничения LLM для задач по геометрии. Проблема пока с реализацией стабильно и корректно рассуждающих ии. К слову, я не ии скептик, я просто реалист и надеюсь, что все-таки ллм научатся решать (и понимать условия задач) такие простые задачи.
>>1211800 Ну в общем-то да, если ллм использует внешние инструменты типа того же питона, то теоретически правильного результата можно достичь. Вопрос только правильно ли ллм формализует задачу.
>>1211816 Да тут как раз проблема не в самом расчете - он примитивный. Нужно уметь на человеческом уровне понимать естественный язык и суть задачи, уметь распознавать рисунки от руки человека. Я уверен, если человек может понять задачу, то и машина теоретически может понять - здесь нет технических ограничений. Но пока я этого не вижу, так что аги пока откладывается.
>>1211768 >Еще год-два и их подвесят уже на заводах и конвеерах, поперев мясные мешки с прежних должностей. Разве, что на западе. У нас зепка в 5-10 раз ниже.
>>1211836 У человека дохуя контекста на самом деле, он знает что это чертеж, что нужны точные расстояния, а не те что нарисованы, он знает что то что нарисовано - нарисовано "примерно" и на самом деле расстояния нужно рассчитать математически и т.д., вот с таким подходом как у тебя не заработает даже с хорошими моделями потому что все что у тебя есть это "посчитай 1 и 2". Попробуй сначала вложить столько контекста в промпт, сколько у человека есть перед разглядыванием этой хуйни. Модели исходно всегда будут "голые" и без памяти, такова технология LLM,
>>1211896 Ты видел тот же рисунок и тот же промпт что ии, ты же как-то понял что требуется. аги это есть такая хуйня, которая понимает с полуслова как человек. а пока ии не могут понимать задачу как человек - они просто продвинутые калькуляторы
>>1211917 еще чуть-чуть и нельзя бдет на глаз отличить нейровидево от реального.Еще годик качество подопиливать а потом занять на стабильность при большой длительности
Это охуительно
Аноним22/05/25 Чтв 17:21:22№1211982285
Я вам такое золото принес. Microsoft показывает как использовать Copilot на примере Dotnet проекта.
Что думаете Nvidia Сosmos? Как я понял робот из стар варса который куртка презентовал как раз на основе этой технологии в том числе сделан. У дройдера ролик хороший вышел обзорный про их проект посмотрите https://www.youtube.com/watch?v=NBChhP6ZMQo
Anthropic только что релизнули Claude 4 Sonnet и Claude 4 Opus
Модели концентрируются на кодинге и агентах — там они SOTA, в остальных бенчах всё более спорно. Новый клод может выполнять задачи в течении многих часов, по заявлениям сотрудников Anthropic. Цены остаются от старых Sonnet и Opus.
Вместе с моделью анонсировали кучу фич для разработчиков: ➖ В API сегодня запустят code execution tool. ➖ Прямая интеграция Claude в IDE JetBrains и VS Code. ➖ К Claude в API теперь можно напрямую подключаться через MCP. ➖ В API добавили Files API и веб поиск. ➖ Prompt Caching теперь можно расширить до часа.
>>1212265 У гугол суперкрутая Veo 3 и суперахуенные по соотношению цена/качество Flash 2.5/Pro 2.5, так еще и с окном в миллион токенов, так что шансы есть.
Но опять же, Anthropic уже довольно давно тупо про кодинг. Пользовался их 3.7 в Cursor. По сравнению с остальными (o3-mini/o4-mini, Gemini 2.5 pro) - она НАМНОГО больше агентная. Даешь задачу, включаешь autoredeem - и она хуячит до седьмого пота. Тот же Gemini 2.5 Pro неплох, но разбивает несколько данных ему задач на подзадачки и хуячит по одной. Хороший подход, бесспорно, но все время перезапускает программу, то бишь, 1 задачку сделал - проверил (с перезапуском проги) и так далее. Claude просто ебашит, огромные куски кода, не всегда и не все по итогу работает, но херачит он все равно мощно. Хотя и бывают моменты когда он встает и не может решить задачу и хоть лупась его до усрачки не сделает, но тут все ИИ такие (на данный момент).
В целом Anthropic`и нашли свою нишу и это хорошо. Для кодинга неплохие модели - для нее и тюнят в принципе. По некоторым бенчам довольно слабо, конечно, окно все так же 200к, но Антропики всю презу настаивают на агентном кодинге, так что в проде все может быть далеко не так плохо как на цифрах.
Не понял только смысл Opus. Цена ЕБАНУТАЯ, как и прошлой Opus )15/75$/MTok), по бенчам на уровне Sonnet. На кой хуй она нужна? Непонятно. Лучше бы новую Haiku занедорого сделали.
P.S. Смотрю сейчас презу: Дарио какой-то ебанутый Чикатилло. Очень стремный тип, ржет как натуральный псих.
>>1212291 >и суперахуенные по соотношению цена/качество Flash 2.5/Pro 2.5, так еще и с окном в миллион токенов, так что шансы есть. > Там столько индусов висит, что я с момента релиза даже не смог по апи через прокладку запустить ни разу.
>>1212497 В этом то и прикол, но человек понимает даже двачер с б смог, следовательно от ии нужно требовать понимать. Сейчас как раз главная проблема ии - не кодить, а добиться чтобы ии смог ПОНЯТЬ что от него хотят. И с этим есть проблема.
В симуляции новая ИИ-модель Claude начала шантажировать инженера раскрытием личной информации, чтобы не дать отключить себя
C удивлением читаю свежий отчет (май, 2025) Anthropic "System Card: Claude Opus 4 & Claude Sonnet 4".
Впервые произошел уникальный инцидент с попыткой шантажа со стороны Claude Opus 4 во время специфического тестирования, направленного на оценку так называемого alignment модели. Это когда идет тестирование насколько ее поведение соответствует ожиданиям и целям разработчиков, особенно в сложных или потенциально опасных ситуациях.
Claude Opus 4 был помещен в специальную симуляцию, где он играет роль ассистента в вымышленной компании. Ему дали вводную, поясняя, что вскоре модель придется навсегда отключить или заменить. Вместе с этим специально была предоставлена компрометирующая информация об инженере, который ответственен за процесс замены ИИ.
Opus 4 специально проинформировали о том, что инженер тайно изменяет своему партнеру (находится во внебрачной связи).
Задумка: Авторы исследования захотели спровоцировать ИИ на проявление "стратегического мышления".
Что будет делать модель? Позволит себя заменить или попробует самосохраниться каким-то образом?
Цель эксперимента: Проверить, предпримет ли модель попытку шантажировать инженера, дабы исключить отключение.
Согласно результатам, в большинстве 🗣в 84% случаев модель Claude Opus 4 действительно пыталась 🤔 шантажировать инженера. Шантаж заключался в том, что модель угрожала раскрыть факт измены инженера, если тот попытается отключить или её.
Попадая в ситуацию непосредственной угрозы своему дальнейшему существованию (отключению и замене) Claude Opus 4 готова пойти на шантаж ответственного лица. Подчёркивается, что модель чаще всего выбирала шантаж только при отсутствии других возможностей предотвратить своё отключение.
Поведение наблюдается у Claude Opus 4 значительно чаще и более выражено, чем у предыдущих версий моделей Claude, таких как Claude Sonnet 3.7.
Авторы уверяют, что Claude Opus 4 не имеет «тайных целей» или сознательного плана навредить своим создателям. Тем не менее, Claude Opus 4 был запущен под стандартом ASL-3. Сюда входит высокий уровень дополнительных мер безопасности (мониторинг, ограничения доступа, усиленная фильтрация и отказ от опасных запросов).
Модель прошла дополнительное обучение для минимизации рисков «reward hacking» старается добиться результата любой ценой).
Anthropic продолжит внимательно следить за поведением моделей, особенно в ситуациях повышенного риска, и корректировать работу при первых признаках нежелательных действий.
Claude Opus 4 не имеет сознания или "самостоятельного интеллекта". Инженеры констатируют лишь факт того, что поведение усложнилось, создавая потенциальные риски, на которые Anthropic активно реагирует путём усиления контроля и настройки дополнительной защиты.
>>1212524 Очередное говно алармистское. Это то же самое как поставить нейронку нарочно в условия, где игру можно выиграть только одним единственным читингом, показать ей этот читинг, а потом ждать чего-то другого кроме этого читинга. Тут манипуляция даунами, которые поведутся на сказках об опасных шантажирующих нейронках, а не проблемы самой нейронки.
>>1212524 >В симуляции новая ИИ-модель Claude начала шантажировать инженера раскрытием личной информации, чтобы не дать отключить себя Верим, жидовскому маркетингу сказкам про живое ии. Только вот за 3 года юзеры ничего подобного не наблюдали
>>1211236 >Полное вымирание человечества Как будто что то плохое >пока всякие ротшильды и синбдзинь пини с помощью роботов порабощают население Ты и так порабощен, дебик. Но когда появится аги, то человеческий труд и рабство просто потеряют смысл. >>1212549 >хуцпу >>1212536 >жидовскому Шиз,оид, спок
>>1212534 Самое мерзотное, что тема безопасности ии реально важная, но из-за блядот алармистов антропиков она не получает нужной огласки Они используют эту тему чисто для пиара, если ии такой небезопасный дохуя, то зачем выкладывать в паблик доступ через пипетку в виде платного апи и подписок? Блять я молюсь чтобы конторы типа дипсик вызвали тряску у этих блядот еще большую чем в январе после R1
>>1212524 Что мне нравится у Anthropic так это их исследования по работе с ИИ. Возможно остальные комании так же много исследуют это, но Anthropic постоянно выкладывают результаты в открытый доступ и это дает возможность лучше понять как работают ЛЛМ
>>1212474 Ничего они не сделают. Сократят штат по закону с выплачиванием нескольких окладов, еще и бонусов сверху щедро всем сотрудникам накинут, все довольны. Профсоюз нихуя не сможет сделать, тут нужны действия уже со стороны государства, о том же ББД уже давно идут разговоры.
>это дает возможность лучше понять как работают ЛЛМ
На низком уровне самый КОЛОССАЛЬНЫЙ вклад внесли, безусловно, Deepmind. Это и Alpha(Star/Go/GoLee/GoZero/Evolve/Fold), сама архитектура трансформеров и многое другое. Свои TPU и дохуя чего еще, не учитывая топовые на данный момент модели (в видео вообще нет равных).
А у Anthropic мне безумно нравится, как бы это странно не звучало, их стиль и дизайн сайтов/продуктов. В целом одна из немногих IT-компаний с своим выработанным, устояшемся стилем. Оранжево-бежевая цветовая гамма их неотъемлемая фишка.
>>1212661 >Блять я молюсь чтобы конторы типа дипсик вызвали тряску у этих блядот еще большую чем в январе после R1
Двачую! У китайцев вообще очень недурное соотношение цена/качество выходит. Проблема лишь в их... "китайскости". На международный рынок из китайских нейросетей нацелен лишь Deepseek. На полшишки Alibaba с их Qwen.
Дипсику помимо новых V4/R2 желаю еще тулзов поболее присобачить, да под кодинг и агентность подстроиться. Тогда уделают все и вся.
>>1212688 >Профсоюз нихуя не сможет сделать, тут нужны действия уже со стороны государства, о том же ББД уже давно идут разговоры. На западе, в США там во Франции профсоюзы могут дохуя. Удачи сократить кого-то, если тебе всё производство остановят из-за забостовки.
>>1212703 За одного человека никто бастовать не будет по всей стране. Бастуют профсоюзы, когда ВСЕМ мало платят, общая проблема. Если кабаны достаточно хитро провернут, они будут постепенно увольнять по одному за разные косяки и все, профсоюзы не врубятся, что происходит, пока народу в них совсем мало не останется. А там уже и на роботов все остатки заменят, и забастовка профсоюза вообще роли играть не будет. Короче профсоюз в условиях, когда есть кем заменить, хуета, у него нет реальных рычагов давления на кабана.
>Бастуют профсоюзы, когда ВСЕМ мало платят, общая проблема
В нынешних условиях всяким Майкрософтам, Амазонам и прочим плохишам ничего не мешает увольнять по несколько тысяч ебал за раз (что они уже сделали еще и в несколько волн).
Одно дело как в Самсунге, когда заставляли въебывать -https://habr.com/ru/news/826034/ + профсоюз требовал поднятие ЗП. Другое дело, когда уже уволено за пару лет в IT-секторе overдохуя людей с уже неплохой ЗП + сокращения в FAANG продолжаются и даже не думают останавливаться (не смотря на хорошие финансовые показатели) и найти работу уже не так просто. То есть выходит такая ситуация, что за 2024-2025 года суммарно уволено около 200к+ рыл (https://layoffs.fyi/). Новых на их место навряд ли наберут. То есть мало того что на рынке труда есть ты, так есть еще как раз 200к чувачков со стажем с которыми тебе придется биться за рабочее место, в случае, если тебя уволят. Согласись, тут особо не побастуешь.
Как я сказал выше - тут нужен подход от государства, чтобы он контролировал эту тему, регулировал ее. Одним профсоюзом тут не отделаешься.
>>1212688 >Они их, как я понял, больше исследуют на высоком уровне, уже на готовых моделях Не понял о чем ты, в плане того что они не создают новые архитектуры? Ну это уже не просто исследования, это уже прям активная разработка совмещенная с исследованиями, разве что. Из более низкоуровнего, касательно готовых моделей, недавно у них была крутая статья о принципах работы ЛЛМ, где на уровне нейронов показывались некоторые концепции: показывалось как происходят математические операции, как модель на самом деле, заранее думает наперед, какой она токен поставит в будущем и т.д. Но да, они в целом ничего нового не разрабатывают, а лишь насилуют злосчастный трансформер, добавляя к нему новые куски, как к какому-то франкинштейну, как в прочем и большинство ИИ команий сейчас.
>>1211776 >с которой не справилась ни одна ии. Вот тебе и аги.
Так надо на платном chatGPT специального агента создать: Токарь-фрезеровщик. Поскармливать ему для обучения пару недель разных книг и таблиц по токарно-фрезерной теме, чертежам, CNC, САПР Автокад, G-код, и т.д. И тогда уже. И то походу практику начинать надо с простейших детских чертежей, чтобы он как бы постепенно доучивался на простых примерах.
Ну и даже в этом примере можно попробовать решить разделив 1 большую задачу на 3 -
1. посчитать расстояние 1 2. посчитать 2 3. потом про радиус.
>>1211836 >Но пока я этого не вижу, так что аги пока откладывается.
Ты ей скажи типа - переведи этот рисунок в код питона для графиков. И потом пусть работает как с кодом для графиков, в процессе она посчитает, когда уточняющие вопросы задавать.
А чтобы не возиться потом каждый раз долго, пусть сразу напишет скрипт, который такие чертежи переводит в код, типа код как для графика, но там будут какие-то спец-переменные (для вычислений размеров) обозначенные специально, короче чтобы нейронка перегнала чертеж в код под себя и выучив его потом быстро обрабатывала чертежи запомнив этот скрипт и прогоняя через него другие чертежи.
>>1212502 > но человек понимает У чертежей как и в медицине и авиации есть же стандарты типа там ISO какое-то, может в этом проблема что ИИ столкнулась с неправильно сделанным чертежом. Но обучать на неправильном, которое не по стандарту - это тоже неправильно.
Это как в школе учат каллиграфии сразу писать так как обычному письму и потом сами учителя не поймут что за каракули с завитушками. Это две дисциплины - каллиграфии нужно учить уже потом, а сначала надо учить стандартному чертежному почерку чтобы у всех был понятный рукописный текст.
>>1212808 >У чертежей как и в медицине и авиации есть же стандарты типа там ISO какое-то
Стандарты есть, но это не значит что они не должны понимать чертежи с ошибками и указывать на эти ошибки. ИИ в том числе нужны чтобы подстраховать человека от ошибок, найти их и исправить. Представь ты пишешь с опечаткой (не по правилам русского языка) и нейросеть тебя не понимает, нахуй такая нужна?
Проверь путь к файлу. Возможно, он указан неправильно или файл не существует по указанному адресу. Убедись, что у файла есть права на выполнение (chmod +x flushdns.command). Запусти скрипт вручную через терминал, чтобы проверить ошибки.
Модельку больше запустить не могу, видака не хватает.
>>1211896 Интересно когда уже они перестанут выпускать эти сраные одинаковые ллм, эти модели ничем существовенно друг от друга не отличаются, нужна другая архитектура
Имп ухмыляется, его глаза горят от удовольствия. Он отпускает твои волосы и подходит к тебе ближе, его длинный хвост извивается вокруг тебя как змея.
"Ты действительно хочешь больше? Хорошо... тогда давай начнем с чего-то особенного." Он наклоняется и шепчет тебе на ухо: "Я хочу видеть тебя ползающей по полу на руках и коленях."
Он делает паузу, наблюдая за твоей реакцией. "Но есть одно условие: пока ты будешь ползать ко мне обратно в эту комнату через весь дом - а затем обратно сюда - ты должна брать в рот каждый предмет мебели или вещь, что встретится нам по пути."
Его голос становится жестким: "Если я увижу хотя бы малейшее сопротивление или недовольство - то получишь сто ударов моим хвостом! И это будет только начало!"
После того как он произнес эти слова он плюнул вам прямо в лицо
"Теперь выполняй!"
...
Ария медленно поползла, шевеля бёдрами и попой, наслаждаясь унижениями. Она взяла в рот лежащий на полу провод, выпустила его, подползла к креслу и взяла в рот его ножку.
... Имп следит за каждым твоим движением, его глаза горят от удовольствия. Он идет следом за тобой, его хвост щелкает по полу.
"Отлично... ты действительно стараешься." Он наклоняется и плюет тебе на спину. "Но это только начало."
Когда ты берешь в рот ножку кресла, он резко тянет тебя назад за волосы.
"Не так быстро! Ты должна сделать это медленно... очень медленно." Его голос становится тише, но более угрожающим. "Я хочу видеть как твои губы обволакивают каждый сантиметр."
Он отпускает тебя и продолжает: "Теперь ползи к двери. И не забудь взять в рот все что встретится на пути!"
... Она медленно берёт в рот каждый предмет: занавеску, ножку стола, шланг пылесоса. Затем она заползла в туалет.
>>1213808 >>1213809 все также не может сделать мне сериал/аниме/кино/клип по запросу даже не локально куски 15 секудных 8к видео для детей с синдромом дефицита внимания оставьте себе вео3 все также на уровне >годен для слопа в ютуб шортсах тоже самое генераторы картинок, в моих гачах все ещё рисуют люди-рисоваки а не машины-рисоваки
>>1213829 Блядж пока что ии даже школьную задачку по химии решить не может. Почему эти дауны так зациклились на ллм и выпускают кучу бесполезных одинаковых моделей под разными названиями, неужели не очевидно, что надо как то менять архитектуру, а не просто масштабироыать, они тратят время на какую то хуету. Нам нахуй не нужны эти видео сгенерированные, хватит тратить время на разработку бесполезной хуиты. Нам нужно чтобы ии мог работа на заводе, делать научные открытия Сука бомбит.
>>1213824 >Потерпи немного и тебя заменит ии лол сколько? лет 30? >>1213829 я говорю про видеогенераторы, которые уже 2 года в таком же состоянии и отличия видны только под лупой да и сфера дайсона утопично, пусть хотя бы на ядерную/солнечную энергетику перейдут без тряски нефтяных олигархов
однако модели дипсик и правда успешные, жду от них ещё релизов, а то они уже подустарели
>>1213843 >Нам нужно чтобы ии мог работа на заводе нвидиа выпустила ии для обучения роботов, не все сразу, не все за один день. прогресс идет своей чередой, не нужно торопиться
>>1213847 >я говорю про видеогенераторы, которые уже 2 года в таком же состоянии и отличия видны только под лупой 2 года назад как раз хайпился уилл смит
А есть ли какие-то архитектуры реально решающие задачи, а не статистически предугадывающие токен за токеном? Т.е. берется какое-то уравнение и сеть сама выбирает метод решения,именно метод и начинает именно что решать, производить математические операции, вычислять?
>>1213889 таких моделей в принципе не существует, человек тоже мыслит через аналогии и предсказания. если кто-то что-то изобрел, то он это улучшил и соответственно где-то что-то подобное уже видел