24 декабря Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна. Подробности случившегося. Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!
Наша любая ClosedOpenAI, по традиции, анонсировала революционный продукт. Первый полноценный, годнейший генератор видео. Наконец-то видео выглядят как видео, а не зум двухмерной картинки. Доступа пока ни у кого нет, так как они еще пилят под нее соевый фильтр, но вы можете чекнуть примеры по ссылке: https://openai.com/sora Спойлер: ЭТО ПРОСТО ОХУЕННО
В этом тредике мы ждем выхода модели в открытый доступ и пытаемся получить к ней доступ всем тредом, после того как ее официально откроют для всех желающих, ибо нам его конечно же так просто не дадут, ребята.
Никаких сроков по релизу ещё не давали? Понять бы, насколько приемлемые результаты выдаёт в целом, или это лютый черри-пик всё.
Цензура там будет по типу DALLE-3 - два фильтра, один будет проверять промпт, а второй чекать покадрово на запрещённый контент: > In addition to us developing new techniques to prepare for deployment, we’re leveraging the existing safety methods that we built for our products that use DALL·E 3, which are applicable to Sora as well. > For example, once in an OpenAI product, our text classifier will check and reject text input prompts that are in violation of our usage policies, like those that request extreme violence, sexual content, hateful imagery, celebrity likeness, or the IP of others. We’ve also developed robust image classifiers that are used to review the frames of every video generated to help ensure that it adheres to our usage policies, before it’s shown to the user.
>>643147 Они показали так же косячные результаты для примера. Я думаю черипик, само собой, но в целом 50/50 будет выдавать достаточно хорошие результаты
Есть ли такая вероятность, что каждый желающий сможет потом скачать тебе такую же нейронку на пк? Ну как С Т, м? Соевые фильтры не нужны, я хочу нагерерить порнушку. А какие-то там блядь мамомонты и котики мне не нужны.
>>643291 Весь прикол в том, что с этой моделью даже это выглядит охуенно, плавно и качественно. Если бы мне показали это до эпохи нейронок, я бы подумал что какая-то крутая команда CGI экспертов потели часы над тем чтобы сделать смешной забагованный стул в реальном футаже.
>>643127 (OP) Вброшу пост с информацией, который украл из /b.
Коммент от одного из лучших спецов: "Ключевых деталей вроде точной архитектуры, принцнипа сборки и фильтрации датасета нет, но всё же интересности нашлись. Тезисно:
—OpenAI продолжают развивать свой путь к выучиванию большими нейронками картины мира просто из доступных данных, без лишних усложнений. Если вы смотрели лекции 1.1 (https://youtu.be/l-l82uNwyu8)[РАСКРЫТЬ] и 1.2 (https://youtu.be/jKd_CdRh7U4)[РАСКРЫТЬ] моего курса, то для вас это не новость — я рассказывал, что ещё в 2017м году до GPT-1 топовые исследователи делали Proof-of-Concept для этого. Отсюда и название работы: модели генерации видео как СИМУЛЯТОРЫ МИРА —Также как и для других моделей, здесь соблюдаются законы масштабирования: больше моделька, больше вычислительных мощностей = лучше результат. Боюсь представить, сколько времени это всё училось. —Обычно модели генерации видео учатся на обрезанных до одного и того же (малого) размера кадра. Например, 256x256 пикселей. В OpenAI решили тренировать на том, что было, в разрешении вплоть до FullHD и с любым соотношением сторон. Это позволяет Sora генерировать хоть вертикальные видео, хоть горизонтальные, хоть аналоги того, что снимают на плёнку 2.35:1 (https://youtu.be/fZF1VK8D3Pw?t=210)[РАСКРЫТЬ] —Для тренировки такой модели нужно огромное количество видео с грамотно составленным текстовым описанием. Такого контента в мире мало, поэтому делают тот же трюк, что был применён в DALL-E 3: обучают отдельную модель для написания высококачественного, но короткого описания, а затем с помощью GPT-4v расшивают его деталями. Обучение на синтетических описаниях значимо увеличивает качество генерации, отмечают исследователи —Так как в основе лежит трансформер, который принимает вектора и выплёвывает вектора, то можно делать разную магию: можно генерировать не видео, а изображение, можно просить анимировать уже нарисованную кем-то или чем-то картинку, можно просить догенерировать видео — причём не обязательно только в будущее, можно получить и кадры из прошлого, что предшествовало куску видео. А ещё можно заставлять модель склеивать пары видео в одно (примеры скину ниже)
И теперь самое главное: навыки, которым никто модель не учил, но которые сами по себе появились из-за беспрецедентного (™) масштаба: —согласованность 3D пространства: камера может свободно перемещаться в «виртуальном мире» (существующем в момент генерации), крутиться итд. —постоянство объектов в кадре и долгосрочная память: в течение всего видео какие-то ключевые объекты не будут менять ни форму, ни текстуру (как это бывало почти у всех предыдущих моделей). Если какие-то объекты пропадают из кадра, то часто появляются такими же, какими были до исчезновения, и в правильном месте —интерактивность мира: объекты могут взаимодействовать и реалистично изменяться, хоть и не идеально (см. примеры ниже) —симуляция цифровых миров: вот это очень интересный пункт. Sora может воссоздать мир игры Minecraft (жаль какую-то динамическую стрелялку не показали!) и одновременно управлять игроком в Minecraft (вернее симулировать поведение игрока), а также отображать мир и его изменение с высокой точностью. И всё это без детального описания в промпте. Эти «навыки» модели позволяют предположить, что дальнейшее масштабирование видеомоделей является многообещающим путем к разработке высокофункциональных симуляторов физического и цифрового миров, а также объектов, животных и людей, которые «живут» в них. Звучит как фантастика, но серьёзно —а что остаётся модели делать, чтобы хорошо предсказывать часовые видео? Приходится симулировать действо в них, понимая логику всех объектов, самого физического мира и его правил.
Увеличим модельку ещё —увидим, к чему это нас OpenAI приведёт!"
>>643315 Ну это было очевидно с учетом того, что они по факту это напрямую сказали в своем анонсе, что видеомодель помогает ИИ понимать мир и нужна для создания AGI. Более того, Сэм еще задолго до этого при разговоре о GPT 5 и ее мультимодальности говорил о том что она будет воспринимать видеоконтент. Я думаю эту модель пилили уже почти год. Другое дело, что она, как можно видеть, еще не очень хорошо симулирует реальный мир, более того, она все еще не способна в правильное количество пальцев, и даже правильное количество конечностей (в примере с красными пандами). Вот тут например хоть и вымышленный персонаж, но у него буквально разное количество пальцев на разных руках и ногах.
>>643354 Хоспаде, какие же нормисы мерзкие. В первую очередь при выходе топовой видео модели думают о генерации маленьких голеньких детишек и при этом сами еще кого-то педофилами называют.
>>643358 База, это же в нескольких шагах от HOLODECK'а из стартрека, а какие еще развлечения кроме наркотиков нужны марсианскому колонизатору? А Маск целый миллион таких хочет завезти - каждому по нейролинку и можно ебашить 18 часов в день и развлекаться в матрице твоих фантазий перед сном.
Зомбиподобные существа с рандомно меняющимися своими местами ногами проплывают на фоне малополигональных задников, выглядящих как результат фотограмметрии образца начала нулевых. И все это работает на здоровенном кластере из А100. Ща эффективные начнут пачками увольнять, потому что вот-вот выпустят кнопочку "сгенерировать сериал нетфликс", а потом будут с фонарем искать челов которые хотя бы в теории знают как устанавливать тридэмакс.
>ждем выхода модели в открытый доступ Ждите, и обождетесь.
>>643201 Такой вероятности в принципе нет. Более того, его даже для публики скорее всего не откроют, по легенде - чтобы не наделали политических фейков. В реальности потому что жрет ресурсов как не в себя, и куча технических косяков. У них задача сейчас показать черрипикнутые примеры голивудским экзекам и уломать их влошиться на бабло, потому что вечно жить рассказами про AGI не получится и нужно опукать железо и индусов.
>>643908 >>643904 Симуляция не особенно убедительная, на самом деле - в видосах видно как оно ломает перспективу, например ломая горизонт соляного озера в том видосе про астронавта, или где собаку пускают на траву в парке. Тогда какая это нахер симуляция если у него две перспективных плоскости не сходятся?
С другой стороны, у человеков тоже схожая херня, просто более продвинутая. Каким-то образом ты воспринимаешь прямые линии прямыми, имея угол обзора двумя глазами 180° или даже больше. Это математически невозможно, но тебе это не мешает. Всё потому что мозг гоняет нейронный SLAM в реалтайме, и видит вовсе не картинку, а набор эмерджентных абстракций, которые могут противоречить друг другу, если из них вдруг пикчу сгенерить.
А так в самом факте эмерджентной симуляции ничего особенно удивительного нет, это натура сеток. Диффузионные сетки например вообще себе сами свой язык выдумывают при попытке генерации текста, это ещё давно выяснили. С графемами и прочими атрибутами.
>>643781 Ну это просто видеотрансформер, т.е. обычный трансформер у которого токены это латенты извлечённые из видосиков, а выходной "текст" это предсказанная последовательность этих латентов. Тут вопрос скорее в качестве и подготовке датасета, очевидно что они гоняют мультимодалки на отдельных кадрах и на целых сиквенсах для классификации.
>>643904 А меня поражает, как llm понимает, что после точки нужно писать с заглавной буквы. А, погоди, она же триллион раз это видела во время обучения, вот и повторяет бездумно, точно.
>>643918 Cейчас бы верить уебанам, которые рассказывают про симуляцию реальности. Хотя, если из долбоёбов, которые верили, что GPT-3 станет AGI, потом верили, что GPT-4 станет AGI и сейчас верят, что GPT-5 станет AGI, то всё возможно.
>>643921 Кто там верит про AGI в гопоте, дурачина? Да и чтобы ты понимал, клоузедАИ использует собственное определение AGI: высоко-автономные сущности, которые выполняют работу лучше людей в большинстве экономических задач. А не "похожие на них" или "превосходящие во всём".
Если тебя удивляет обычное эмерджентное поведение и что сетка учит концепты/абстракции и комбинирует их, тебе стоит немного разобраться как эта хуйня работает, стохастический ты ПЕТУХ. Это просто блять визуальная демонстрация того что и так все давно знали.
>>643922 >Кто там верит про AGI в гопоте Так долбоёбы вроде тебя и верят. >выполняют работу лучше людей Смотря с какими людьми сравнивать, если с синдромом дауна, то да, гопота сравнялась, скорее всего. Но всё ещё не лучше. >сетка учит концепты/абстракции и комбинирует их В этом как раз ничего удивительно и нет, долбоёб. Я об этом изначально писал - она просто заучивает, что видит, и повторяет.
>>643922 Стоит напоминать, что Ян ЛеКун за полгода до демонстрации возможности GTP-4 на пикрелейтеде, в подкасте у Лекса Фридмана заявил, что нейросеть НИКОГДА не сможет дать правильный ответ на этот вопрос?
На большинстве видосов видна жосская интерполяция между ключевыми фреймами. Напиминает как я на видеорилейтеде развлекался c ebsynth, оно основывается на 4 кадрах. То есть я гарантирую что даже их HPC-кластер не в состоянии честно генерировать весь видос, и приходится обмазывать все каким-то умным интерполятором на базе отдельной сетки. И из-за этой интерполяции на всех видосах двигаются как плывут, потому что интерполяция линейная, а движения должны быть не. Если бы видео генерировалось честно, движения были бы натуральными.
Ну и скорее всего процесс в целом выглядит так. Сначала диффузия генерирует фрейм, затем вторая сетка дистортит этот фрейм моушн-векторами на 10-12 кадров вперед, затем на фрейм накладывается маска и часть под маской перерисовывается диффузией 100500 раз, и на основе этих 100500 новых кадров третья сетка-дискриминатор делает композит одного фрейма, который может быть с минимумом трансформаций преобразован в предыдущий фрейм. Затем в область незакрытую маской делается инпейнт новой визуальной инфы, за счет этого инпейнта возможны глюки как на видео с клонирующимися львами. Затем четвертая сетка делает 10 кадров интерполяции между ними.
>>644221 >жосская интерполяция между ключевыми фреймами Подозреваю, что это не интерполяция, это давка аи шумов. Всю картинку глючит, но потом шум просто откатывается на прежние позиции, но откатывается не каждый кадр, а как в каком-нибудь TAA. В то, что там есть хоть какие-то моушн векторы вообще не верю, для этого нужно, чтобы сетка видела не плоскую картинку, а хотя бы по слоям.
>>644221 >>644251 >>644271 Выше же блогозапись есть как это работает. >>643846 Это просто трансформер, у которого вместо текстовых токенов видеолатенты, выжатые из видосов в автоэнкодер при обучении. Это не кейфреймы в прямом смысле, они семантические и представляют собой "смысловые куски" клипа. Трансформер выстраивает их в осмысленный ряд, получая общий сценарий клипа. Диффузионная часть работает покадрово, интерполируя между видеолатентами.
Очевидно что латенты имеют какую-то разрешающую способность/степень сжатия. Чтобы влезть в имеющееся железо, каждый латент описывает довольно крупный кусок клипа. Отсюда ощущение что всё плывёт, не потому что там линейная интерполяция (инфу о движении он естественно тоже содержит), а просто потому что они зашакалены слишком сильно. Короче плывущий эффект это аналог нейропоноса, но для движения.
В общем-то ничего нового (помимо их DALL-Eшной фишки с обучением на развёрнутых кэпшенах), просто как обычно OAI сделали это лучше всех и получили результат лучше всех.
Никакого инпеинта, TAA и всякого постпроцессинга там конечно нет, можно быть 100% уверенным что результат получен максимально дубовым путём и в общем описании они ничего не скрыли. OAI это ведь не VFX компания, а AI-яйцеголовые. Они не картинки или текст генерят, они пытаются замаксить мозги у своих моделей и выработать сложное эмерджентное поведение. Для них все эти DALLE, GPT и прочие подобные это промежуточные эксперименты, плюс отчёт о работе, и прикольный побочный продукт за который кто-то платит бабки и снабжает следующие эксперименты. Они даже не стараются причесать выхлоп того же DE3, как артефачил так и артефачит, а эта сетка у них была готова ещё в марте 2023, они пытались её всё это время зацензурить. А вы говорите про инпеинт. Да он их не ебёт вообще, это 100% выхлоп чистой сетки.
>>644390 >та сетка у них была готова ещё в марте 2023, они пытались её всё это время зацензурить А элизабет холмс не выпустила свой анализатор, потому что боялась что теранос оставит врачей без работы
Кстати к слову о тераносе, ви будете смеяться, но таки да. Вот настолько там все плохо с фантазией. Еще можно нарыть туннелей и сделать тротуарную плитку с солнечными панелями.
Я сегодня узнал что для того чтобы обучить с нуля сраную 3B LLM нужно гонять кластер из 16 H100 примерно 120 суток, а вычислительная мощность которая ушла чтобы сделать возможным этот шедевр наверное больше чем то что ушло на рендер всех пиксаровских мультиков по 2012 включительно.
>>644418 Тебя удивляет что они долго мурыжат сетки прежде чем выпустить? Та же гопота-4 была анонсирована за полгода до выпуска, всё это время её мурыжили, и неизвестно сколько прошло до анонса. У них бзик на цензуре, оправдываемый страшным ИИ который нельзя выпускать.
>>646953 >>646962 Живые будут завидовать мертвым. То есть мертвых "воскресят" в будущем с помощью технологий квантовой физики, а живым придется жить триллионы лет до этого "момента".
>>646920 Видеостоки больше не нужны, индусы рисующие дешёвый графон больше не нужны, аниматоры мультиков больше не нужны, порноактрисы больше не нужны, актеры массовки больше не нужны.
>>647140 Насчет видеостоков только согласен. Уже год как есть генератор картинок. Что это дало за год? Это как-то изменило что-то? Где какое-то применение нашли нейрокартинки?
>>647179 Я в своей работе постоянно применяю. Для меня нейронка заменила фотошоп почти. Генерю текстуры, оформление для шрифтов, расширяю готовые кадры, апскейлю шакальные. Недавно монтировал одну документалку про известную личность 19 века, у которой от силы 10 портретов было, я нагенерил еще 40, подвоха никто не заметил. Будущее уже наступило.
>>647192 Делаю видеокалтент на заказ: съёмка, монтаж, компграфика, моделю тоже. Забыл добавить, что с приходом видеонейронок и видео редакторы тоже улучшатся, замазать лишний объект, добавить объект, заменить фон, заменить эмоцию на лице, это всё будет делать нейронка.
>>643869 Итого, AI апскейлинг для текстур в играх уже обычное дело, можно не парится с 4к текстурами, есть технологии, чтоб кадры до 60+фпс поднимать реалистично, даже 3080 картошки смогут любой ААА 2024 года запустить. С этой технологией можно будет целые анимации генерировать, например вместо частиц и шейдеров при взрыве гранаты показывать сам взрыв сгенерированный. Будущее игровой индустрии кажется светлым.
Если помечтать, то и в AR можно прикрутить. Представьте как идете по дороге, всюду грязь и говно. Говорите в Apple Vision Pro "сделай красиво" и повсюду радуга, бомжи на единорогов заменяются.
Надеюсь, что такими темпами и до модели симуляции мира не далеко. Хочу шлем надеть и погрузится.
>>647236 По поводу погружения. На реддите соевые интересную тему задвинули - замена наркотикам. Будет легальный и безопасный для здоровья способ уйти от реальности и галлюцинировать веселыми картинками. Ещё и экономней наркотиков с аналогичным эффектом, ведь шлему только подзарядка нужна будет после покупки.
>>647247 Алсо сами по себе картинки эйфорию не вызывают. нарки жрут ради физического действия на нервную систему - выбросы эндорфина допомина адреналина и прочего говна, а не ради цветных пятен. Ты можешь конечно дрочить, но как показали последние два года - варикацеле тебя успешно остановит. Вот тогда ты и полезешь жрать наркоту или отрезать себе хуй и т.д. и т.п. Сам по себе визуал - хуйня, каким бы крутым он ни был, мозг у человека от такой хуйни надежно защищен. Реальное будущее - это только мозговые чипы, которые позволят стимулировать нервную систему без наркоты, ну пока не сожжешь к хуям, конечно. А так, ну ты маленький или тупой, походу, если на цветные картинки еще ведешься. Поживи немного подольше, поперди в диван побольше, попробуй какая пизда на вкус, осмысли бытие, когда вкус приестся.
>>647260 Чувство страха и через картинки можно вызывать - как пример хоррор фильмы. Эмоции, слезы, любопытство - с этим и книги уже как тысячелетия справляются, сериалы просто повторяют успех. Эндорфин, адреналин - интернет казино на многих психологических принципах свои слоты строит, чтоб эти самые выбросы и стимулировать, исследований куча, из-за детской зависимости был скандал в ЕС и кейсы убирали из игр в Play Market. И сами игры множество вещей в себе несут - доминирование, радость от победы.
Так что тупой тут только ты, если веришь, что картинки не способны вызывать эйфорию, когда на самом деле там целый спектр возможных вызываемых эмоций и вся индустрия развлечений ссыт тебе в пятак.
>>647269 >Чувство страха и через картинки можно вызывать - как пример хоррор фильмы. >Эмоции, слезы, любопытство - с этим и книги уже как тысячелетия справляются, сериалы просто повторяют успех. То есть тысячи лет люди не нуждаются в психотропных веществах, понятно. Так и запишем: дебил.
>Так что тупой тут только ты, если веришь, что картинки не способны Какая же безмозглая малолетняя соя, пиздец просто.
>>647279 >То есть тысячи лет люди не нуждаются в психотропных веществах, понятно. Ну, нормальные люди не нуждаются, да. Как там у наркоманов - не в курсе.
>>647279 > То есть тысячи лет люди не нуждаются в психотропных веществах, понятно Шизло, ты написало, что мозг человека защищен от визуала. Индустрия развлечений, которая с пруфами способна создавать продукты вызывающие нужные реакции в мозгу через визуал тебе в ебальце нассала, а ты с глупым видом ещё и за добавкой пришел.
В случае создания шлема с технологией подобной Sora человек сможет сам по запросу вызывать приятные образы и наблюдать их проекцию в риал-тайм, покажи такое тысячу лет назад уебище?
> Какая же безмозглая малолетняя В зеркале у тебя? В следующий раз перед тем как высирать про "нарики жрут не ради цветных пятен" изучи историю, в которой куча примеров, когда люди употребляли вещества не ради эйфории, а ради именно картиночек в голове - шаманы и разные племена, которые утверждали, что в спиритических целях употребляют. Из популярных наркотиков кетамин не вызывает эйфорию и применяется в т.ч. для ухода от реальности. Есть те кто из любопытства LSD пробуют, в DrugsLab был эпизод, где показывали эффекты и людям действительно может нравится смотреть на картинки, а не чувство самой эйфории.
>>647269 >Чувство страха и через картинки можно вызывать - как пример хоррор фильмы. В хоррорах кассу делает драма, саспенс и звуковое сопровождение, а не визуал. Замени скрежущее пиликание и субнизкие частоты на легкую музычку или сделай характеры и вотэтоповороты предсказуемыми - и все, магия хоррора сдулась.
И в целом, доля визуала в темпоральных искусствах и развлечениях слишком переоценена. Внимание плебса удерживает спейсинг, тайминг и семантические композиционные структуры, а не графоний. Графоний привлекает только детей и инфантильных марвелодебилов, у которых еще не созрела префронтальная кора.
Кстати, именно отсутствие в сгенерированном контенте семантической структуры в итоге привело к массовому неприятию и сдуванию хайпа. 99% генераций сводится к схеме "объект А покоится на фоне Б", лишенной малейших намеков на сюжет и внутренний смысл. Когда на картинках не происходит ничего, даже выкрученный на максимум истерически яркий графон уже не вывозит. Наоборот, мозг включает защиту от сенсорной перегрузки по аналогии с banner blindness.
Впрочем, марвелодебилы это тоже рынок. Плебс должен плотить за каждый пыщ-пыщ и сисик-писик - в конце концов, именно для этого его и рожали.
О чём вы вообще, ебанутые? Космические корабли бороздят просторы большого театра... Это всего лишь демо глючного видеотрансформера, дегроиды укушенные блят
>>647734 Фильмы можно снимать без бюджетов в миллионы долларов. Пишешь сценарий, а он тебе фильм выдаст. А особенно по истории. "Покажи мне видео биографический фильм про Юлия Цезаря на 2 часа", и смотришь киношко за миллионы долларов, снятый без негров и по историческому сценарию.
>>647753 1. Для осмысленного продукта потребуется десяток A100, да и те сгорят нахуй. 2. Этот ИИ для кого надо ИИ, уверен - даже не будет онлайн демки. Может быть, паре топовых кинокомпаний дадут пользоваться, хотя они и без ИИ справятся. 3. Пока что показали только короткие нарезки без звука и с жуткими пространственными артефактами.
>>643199 >но надеюсь, что она будет легко обходиться. Чел... Оно никак не будет обходится. >>643202 Ты ноль забыл. >>643272 Левообладатели запорят всё нахуй. >>643315 >Ключевых деталей вроде точной архитектуры, принцнипа сборки и фильтрации датасета нет >OpenAI НЕНАВИСТЬ. >>646926 Так нет же, там цензура анальная. >>647187 >я нагенерил еще 40, подвоха никто не заметил Ну ты и пидар, рака тебе. >>647260 >но как показали последние два года - варикацеле тебя успешно остановит Что ты несёшь? Вкатился в тред
>>647756 Железо развивается каждый год. Скоро новая линейка видюх и процессоров, а потом ещё новая линейка видюх и процессоров, а потом ещё и ещё, что все это потянет в ближайшем будущем. Тред, в котором мы сидим, ждем и наблюдает за прогрессом самой крутой ИИ технологии, которая будет использована хотя бы для развлечения, которое я описал. Вот даже тот видос, где показывают Калифорнию времен золотой лихорадки - пиздаче любого снятого вестерна по уровню историческому погружению.
>>647756 >с жуткими пространственными артефактами. Сравни с тем, что было даже не год, а 4 месяца назад. Исправят как и лишние пальцы. А алгоритм переходов между двумя видеосегментами показанный уже лучше человека с задачей справляется.
>>647846 Кароч это очередное верунство в неизбежность опенсорсного "SD для видео". Веруны ждут, что им принесут всё на блюде бесплатно без смс и без цензуры, чисто чтоб те подрочили.
>>647872 В том, что педы должны страдать, пора бы уже запомнить. А сколько детей при этом пострадает, всем похуй, бабы ещё нарожают. >>647882 Поэтому её называют лоликон и вовсю торгуют, ага. Разве что в целлофан начали клеить, раньше так на прилавках лежала, а сейчас не почитать.
>>647879 Что плохого в нормализации рисованной педофилии? Кому от этого будет плохо, если ни один ребенок не пострадал. >популяризации Популяризация будет на уровне сегодняшних фурри, кому интересно находят и смотрят, кому не интересно не смотрят.
>>647971 >Что плохого в нормализации рисованной педофилии? -> >>647911 >В том, что педы должны страдать >>648024 >И в РФ запретят ибо надо рожать Могу оплодотворять бабу в год, а остальное время дрочить на нейровидео. >>648024 >Так что подешевение ценника на пизду не рассчитывайте Никто и не рассчитывает. Они же сами будут на нейротехнологии шликать. >>648362 Не появятся. Там только для запуска нужны сотни гиг врама, а уж для тренировки целый кластер суперкомпьютера. >>648366 >Интернет отключают? Ты это, будущее не пали.
Допускать возможность генерации прона с этой хуитой тем более нельзя, иначе белой расе вообще наступит пиздец - беляши продрочат остаток генофонда... Уж лучше пусть огораживают и цензурируют.
>>649473 Долбоебом не притворяйся - там большей частью не дрочибельно, но с голодеком как в Треке все белые мужчины пойдут в кумеры. А обезьян в 3-м мире это как раз и не затронет.
>>649425 Ты и так можешь получить практически любой порн в интернете за 3 секунды БЕСПЛАТНО на любом телефоне за 3к рублей. И что-то никто еще не вымер. Снижение роста рождаемости идет только увеличения качества жизни, а не от порнухи или геев.
>>649688 >там большей частью не дрочибельно Весь мир дрочит, а тебе не дрочибельно? Может у тебя вкусы специфические? >А обезьян в 3-м мире это как раз и не затронет. Магия? >>649705 >И что-то никто еще не вымер. Вообще-то все цивилизованные страны таки вымирают. Впрочем там походу комплекс причин.
>>647236 >даже 3080 картошки смогут любой ААА 2024 года запустить Как обладатель сраной 3080Ti скажу, что даже сраный киберпук стабильно 100FPS на средних не выжимает в 4к вестимо. Так что ты переоцениваешь производительность железа.
>>649960 Посмотри видос чуть выше. Нейронки могут снизить требования к железу за счет того, что железо станет не честно рисовать объекты, а объекты будут сделаны при помощи технологии симуляции. Предсказаны и дорисованы на основе порции входных данных. Вкупе с какой-нибудь технологией нанитов от Анрил это тянет вполне себе на революцию. Остается только дождаться, пока это все войдет в пайплайны, ну и железо само должно чуть подтянуться по уровню. За 5-10 лет должны управиться. А там еще и квантовые компы на подходе.
>>649960 >3080Ti > в 4к вестимо. Включи патч трейсинг, будет тебе 20-30 фпс на фулл ашди. А расчитывать на наниты от анрила вообще дохлый номер, оно еле бздит, за 3-4 года технология отвалится, как рудиментарная, т.к не жизнеспособна.
>>650002 >Посмотри видос чуть выше. Посмотрел. Автор слегонца ебанат. >Нейронки могут снизить требования к железу Ты блядь знаешь, сколько эти нейронки требуют? Да в бендере покадрово рендерить 3D сцену и то быстрее выйдет. Даже текстовые нейронки требуют картонки в десятки раз мощнее текущих потребительских. >А там еще и квантовые компы на подходе. Ты не понимаешь, что такое квантовый ПК. >>650043 >Включи патч трейсинг, будет тебе 20-30 фпс на фулл ашди. Ну да, параша параш. >>650057 102 строка >a couple dances to the blues in their living room, lit by a warm lamp and a dim moon. the man holds the woman's hand gently, leading her in a slow and smooth movement. the woman looks into the man's eyes, smiling softly, feeling his warmth and connection. the couple's movements are graceful and tender, matching the rhythm and mood of the music. the scene is captured from a front angle, showing the couple's faces and expressions, and the lamp on the table, creating a romantic and intimate atmosphere. А они неплохи. Жаль, для челяди всё закроют фильтрами.
>>650090 Квантовый ПК может эффективно высчитывать парочку алгоритмов типа разложения на множители. В остальном там такой же посос, как и в кремниевых. Кв. ПК нихуя не панацея.
>>650076 >Даже текстовые нейронки требуют картонки в десятки раз мощнее текущих потребительских. Всего за год 175b турбу ужали до 7b локалки без потерь, без гигантов. Если за это возьмутся, то в течение полугода будет супереализм графика 700фпс на встройке из нулевых.
>>650094 Во-первых, бессмысленно называть его ПК. Там до ПК еще как макаке до киборга. Во-вторых, этот компьютер поможет разработать новые материалы и улучшить старые. И даже плотнее натыкать те же транзюки на кристаллы, с чем сейчас как раз возникли трудности. На самом деле, там бездна возможностей, это лишь малая часть вариантов его использования. Это такой же черный ящик, как и ИИ сейчас. Океан неисследованного потенциала.
>>649705 >Снижение роста рождаемости идет только увеличения качества жизни Левацкий наброс, вот ведь опять срынок говна в жопу залил. Ок, почему рожают в нищем Таджикистане (аж оттуда к нам завозят рабочих) и Афгане?
>>650096 >Всего за год 175b Лмао. Чел она никогда не была такого размера. Такое предположение появилось из того, что GPT-3 была такого размера, но по факту "TURBO" модель, closedai делает просто уменьшая количество параметров, сохраняя при этом тот же уровень перформанса по их мнению. Как ты думаешь, как еще они могли добиться ускорения работы модели? По сливам в одной из статей мелкомягких 3.5-turbo имеет около 20 миллиардов параметров. Такая же хуйня и с GPT-4 турбо, по факту люди заметили что производительность просела, но жиды из closedai лишь ехидно потирают руки, ибо она была что-то около 300b предположение про 1kkk - это пиздеж полный, основанный на той же ошибке, а стала ~70b, а цены за сервис не изменились.
>>650134 Ты сейчас хуйню нарочно спорол? >>650135 А я вижу что ты называешь чёрным ящиком то, что без проблем эмулируют. >>650138 >Как ты думаешь, как еще они могли добиться ускорения работы модели? Квантовали по наработкам опенсорса.
>>650142 >Ты мало 7б пробовал просто Да блядь вообще ни разу не катал, ага. >7б заебись модельки Они конечно лучше, чем было что-то ранее. Но даже до гопоты объективно не дотягивают, я уж молчу про четвёрку.
>>650153 Это нмхуя не кучка разных 7b, это не ранжомный наборчик нахуй, это полноценная новая архитектура. Каждая из моделей в moe получала свою заточку под определенный тип задач в процессе обучения, методом ведомым лишь самой нейронке. По отдельности каждая из этих моделей - это непонятная НЕХ, которая хуй знает что умеет хорошо, а что плохо
>>650173 хуйня это, с комнатой наполненной симфонией невыполненных обещаний от невидимых алтарей которые были так уязвимы что ими можно было резать заряженный воздух
>>643127 (OP) >пилят под нее соевый фильтр, Все правильно делают. Без фильтра пользователи примутся генерить видео где ебут детей, и ссущих лоли лис и прочую кринжевую хуйню.
>>650139 Черный ящик, может, и не к месту был использован. Можно было обойтись без него. Но ты опустил общий смысл высказывания, которое не сильно от этого потеряло, и докопался до мелочи.
>>650266 Я не упустил главное- магическое мышление. Компьютер у тебя сам блядь что-то разработает, да обойдёт законы физики, упаковав атомы плотнее их размера. Ну ахуеть теперь.
>>650324 Какие атомы, наркоман? Транзисторы - это отдельные атомы, что ли, по-твоему, которые тыкаются на кристалл строго по одному принципу? Я не говорил, что компьютер сам все сделает, я говорил, что он поможет сделать. У кого тут магическое мышление? Если ты меня хочешь заколдовать своей хуйней, то не получится.
Ладно, я уже понял уровень твоих разговоров. Больше тебе не отвечаю.
>>650395 >Какие атомы, наркоман? Транзисторы - это отдельные атомы, что ли? Breaking news, размер транзисторов давно упёрся именно что в размеры атомов. Удачи в упаковке.
>>650423 Надеюсь, ты не он. Я не писал нигде, что транзисторы должны только из кремния делаться, напротив, я писал, что квантовый компьютер поможет разработать новые материалы и улучшить старые. Потенциально это даже в кремний может вдохнуть новую жизнь. К тому же, все не упирается только непосредственно в сами транзисторы, возможны другие пути улучшения вычислений.
Еще раз, основная мысль. Полноценный квантовый компьютер - ключ к оптимизации целой кучи разных процессов. Поскольку он может предоставить решение не методом последовательного перебора верных и неверных вариантов, а буквально вынуть готовое решение из развернутого поля вариантов за короткое время. И это затрагивает множество сфер, начиная от материаловедения и схемотехники, заканчивая оптимизацией подбора кадров на производстве и логистикой.
>>650465 >Надеюсь, ты не он. Да, он не я. >разработать новые материалы А Т О М Ы Т О М Ы Ничего меньше них нет. Никакие блядь новые материалы не помогут, ибо они состоят из тех же атомов. Никакие блядь вибраниумы невозможны физически. >а буквально вынуть готовое решение из развернутого поля вариантов за короткое время Ебать ты пересмотрел научпопа.
>>651058 Ну к примеру 1000$ за месяц подписки на настолько мощный инструмент - копейки. Но что-то мне подсказывает, что стоимость будет баксов 100 и просто будет ограничение, как с gpt 4
>>651058 >будет работать только на супер ЭВМ Всё норм, ведь скоро будет SD3, где всё то же самое - а потом pruned distilled и quantized версия с заточкой под отдельные задачи.
>>651149 ты можешь легко прикинуть производетльность такой генерации
в 1 секунде 30-60 кадров, пусть в целях оптимизации пропускается каждый второй и происходит интерполяция, то есть на 1 секунду нужно сгенерировать минимум 15-30 кадров отдельных изображений.
то есть для видео 1000x1000 1 секунда будет генерироваться в лучшем случае 15-30 минут, это одна секунда видоса, хорошо если памяти хватит, я уверен что требования по памяти тоже вырастут
то есть такую задачу разумно делить на множество устройств, чтобы каждое свой кадр генерировало, но должно быть ещё главное устройство дирижёр всей это симфонии, оно должно быть особенно мощным, чтобы держать контекст, а потом ещё собирать само видео вместе убирая возможные косяки, то есть например у тебя 2 кадра и на одном лишний объект появился ты хочешь его убрать, то есть перегенирировать этот кадр
я думаю что в реальности 1 секунда на какой-нибудь 4090 будет минут 30-60 генерироваться, потому что примитивные видео генераторы как раз просто генерят кадры и собирают, а тут сора явно исправляет косяки ещё, чистит сам видеопоток
>>651336 >Эти возможности позволяют предположить, что дальнейшее масштабирование видеомоделей является многообещающим путем к разработке высокофункциональных симуляторов физического и цифрового мира, а также объектов, животных и людей, которые живут в них. Теперь я кстати на 100% уверен, что и мы в матрице. Раз даже человечество по сути из говна и палок такую технологию смогло сделать.
>>651058 >разве что киношники или богачи Ты серьёзно думаешь, что киношники захотят платить за такое? Технология способная генерировать аж до целой одной минуты видео, доверху забитого нейрошумами, тряской, кривой перспективой, лишними конечностями, кривой анатомией и т.д. И это всё при невозможности точной настройки со светом, текстурой, слоями и так далее. Для киношников это бесполезно, для богачей слишком скучно. Ждут эту штуку те же долбоёбы, что сейчас кончают радугой от тиктока и далле.
>>651456 >богачи будут платить за такое? >киношники будут платить за такое? >обыватели будут платить за такое? >я буду платить за такое? >бомжи будут платить за такое? >не нужно и даром?
>>651220 Чел, ты же в курсе, что рендер 1сек сложной 3d сцены может доходить до 20 часов и больше. А потом еще надо доводить композитингом до фотореалистичности. Так что даже 2 часа на 1 секунду нихуя не проблема, а наоборот.
>>651456 Чел, ты долбоёб. Хотя бы загугли как кинокабанчики ебутся с компграфикой и сколько на это тратят, а потом прикинь хуй к носу как сора это может облегчить. Если не догадался, можешь не отвечать.
>>651644 Вот только этот фотореалистичный реалтайм ставят только размытым фоном, а остальное приходится рендерить по старинке. Потому что, вода, стекло, дымы, огонь там очень условные и нихуя не реалистичные.
>>651645 >как кинокабанчики ебутся с компграфикой Так я и так прекрасно это знаю. Именно поэтому уверен, что сора для них бесполезна. Даже при наличии фотореалистичного видео со всеми необходимыми параметрами, оно должно быть отрендерено послойно. Умеет так сора? Да она не умеет даже свет выставлять с нужного угла. То есть это абсолютно бесполезное дерьмо для киноиндустрии. Даже для тизеров не годится, потому что минута это ни о чём.
>>651709 Всё так, и мне понравилось. Каждый должен это испытать! >>651712 Нет. >>651719 >Да она не умеет даже свет выставлять с нужного угла. SD тоже так не умел. А сейчас есть контролнет с миллионом опций.
>>651740 >А сейчас есть контролнет с миллионом опций Такой себе аргумент. Во-первых, контролнет не работает с закрытой парашей по типу опенаишных сервисов. Накинь контролнет на далли какой-нибудь. Да так, чтобы камера, освещение, одежда, внешность персонажей и окружение были на 100% контролируемыми. Никакой контролнет так не умеет. Можешь загуглить, как делали аватар какой-нибудь, совмещая компьютерную графику и живую съёмку чуть ли не попиксельно. Чем тут поможет сора? Раскадровку сделать, по которой потом нормальный софт сделает всю работу? Проще заплатить художнику за десяток скетчей, ничем уступать не будет.
>>651719 >должно быть отрендерено послойно Не послойно, а специальными пассами, которыми ты можешь расслоить картинку, а можешь просто поменять освещение или перекрасить нужные элементы. Ну ведь не разбираешься нихуя, зачем лезешь? Depth map, normal map по готовому видео уже умеет делать давинчи. ModNet в нюке делает автоматические маски объектов. Depth map - у тебя есть вся глубина сцены, по normal map - можешь менять освещение. Все решения уже есть, их осталось только совместить. https://www.youtube.com/watch?v=BsZmqAhJ1S4&ab_channel=LazyArtist
>>651874 Долбоёб, я тебе про пассы ещё потом скажу. Сейчас речь о слоях. Сора не разделяет фон и персонажа, так как для неё это одно и то же. >Все решения уже есть Что-то уровня потягать курвы в фотошопе. Выглядит, как говно.
>>652036 >про пассы ещё потом скажу Давай очень интересно. >Сора не разделяет фон и персонажа https://www.youtube.com/watch?v=EsZoABTUlVk&ab_channel=learninglab Другая нейронка разделяет, проблемы прикрутить к соре? >Что-то уровня потягать курвы в фотошопе. Сам то пользовался или пиздеть мастак?
>>651444 Хз что такое майа. Но то, что мы живем в симуляции просто более вероятно. Т.к. симулированных миров пригодных для жизни должно быть сильно больше, чем несимулированных.
>>651760 А зачем сервис? Думаешь, киностудии будут на сервисе что-то крутить? Они выкупят лицензию на Сору, и на ее основе допилят себе корпоративную нейронку с тем, что им нужно. Или это сделает крупная компания, к которой будут ходить за техрешениями все киностудии. Может, такой станет сама ОупенАИ, может, ее отделение. Это на первых порах. А дальше технология станет более доступной всем уже в виде локальных решений и сервисов.
>>652180 Не скоро, мб через год-два. Да и то, скорее всего по подписке 100+$ в месяц с ограничением на условные 5 использований в день и тотальной цензурой.
>>652076 >Другая нейронка разделяет, проблемы прикрутить к соре? Чтобы пользоваться всратым инструментом, который выполняет полпроцента задач, нужен миллиард других инструментов, которые точно так же не могут выполнить задачи в полном объёме и предоставить адекватное качество. Рабочая бизнес-идея. >Сам то пользовался или пиздеть мастак? Ты серьёзно не понимаешь почему это хуйня? >>652133 >который по щелчку пальца фон меняют в интервью, или костюм собеседника. Или это уже есть, просто нужен гринскрин. В теории, это всё может работать сегодня и без гринскрина, эдж детекшн технологии шагнули далеко вперёд и работают в рилтайме не няпрягая железо в тех же играх. На деле проще повесить зелёнку. >>652156 >Они выкупят лицензию на Сору В одной руке у них готовый пайплайн, который делает картинку. В другой руке неизвестная хуйня, которая не факт, что так может или когда-нибудь сможет. Стоит эта хуйня дороже выводка боингов, а киношники не те люди, которые готовы вкладываться в практически гарантированный проёб денег без результата.
>>652267 >а киношники не те люди, которые готовы вкладываться в практически гарантированный проёб денег без результата Смотрю на череду предсказуемых провалов, тысячи их Ну...
>>652383 >Смотрю на череду предсказуемых провалов Это ты смотришь на законченное кино, которое было отснято, вышло в прокат, собрало какую-то кассу и отразилось в фин отчётах. Почему оно не нравится конкретным слоям населения и почему оно не стало успехом уровня Титаника разговор другой. Можно вспомнить мэтра Уве Болла, у которого не было ни одного "коммерчески успешного" фильма по таким меркам. Большая часть была просто провалом с точки зрения кассовых сборов. Терял он деньги? Нет, конечно, он зарабатывал миллионы. Потому что киношники это весьма хитрый народ. То, что на чей-то неискушённый взгляд выглядит, как коммерческая катастрофа или кассовый провал, на самом деле может оказаться золотой жилой для компании.
>>652383 Вкладываются в основном не те люди, которые участвуют в процессе. Тут (с видео, с картинками, со всей этой хуйнёй вообще) работает такой странный механизм человеческого мозга, из-за которого одни люди хотят рвать жопу, а другие люди хотят видеть ориджинал контентъ. Вот у тебя вышел фильм про титаник, он охуеть какой коммерчески успешный. Почему бы не снять ещё один такой же? На тех же декорациях, с той же командой - всем же понравилось, го ещё один фильм как корабль сначала плывёт, а потом тонет, всё ж уже готово, просто снимай, наверняка зрители охуеют и снова денег принесут, в первый же раз понравилось. Или например вот есть "история игрушек" первая. Сейчас сделать такой уровень технологичности можно буквально на коленке, на одном компе. Зачем глупый пиксар придумывает себе в каждом проекте новый геморрой технический и героически его превозмогает, почому просто не использует то, что уже и так хорошо работает?
Так и тут. Такой вот сгенерированный видеоряд это круто только для тех, кто за всякими технологиями следит ( ну или может ещё для пары аутистов, которые до сих пор писиют кипятком от того как круто миджорни склеела гаррипоттера и вархаммер). Пока что базовая проблема сгенерированных штук в их вторичности и ужасной усреднённости. Да, технологически это неиронично бомба - комп может сгенерить тебе стабильный видеоряд по тексту, ну прям вау. Но с точки зрения воздействия на потребителя это, простите, трижды переваренный кал. Генерится видеоряд такого типа, который наш мозг воспринимает как фоновый белый шум. Если ты обучишь нейросетку делать очень крутой, с возможностью какого-то адеватного кастомайз видеоряд, в этот момент она сразу устареет, потому что всё, мы это уже сделали/мы это уже видели, это не цепляет, это скучно, нужно сделать/увидеть что-то новое.
Сравнивать нейросетки с появлением сиджи, считая что вот компуктеры заменили аниматронику (и то не полностью), а нейросетки значит заменят моделлеров/ригеров/операторов/навороченные дорогие камеры/умелых световиков, - это не совсем правильно. Появлением сиджи взорвало медиаполе именно потому, что люди увидели такую хуйню, которую раньше не видели и могли только фантазировать, представляя размытые образы у себя в голове. Но нейросетки в нынешнем виде - это не то же самое, они обучаются на том, что УЖЕ создано и производство чего освоено в промышленных количествах (иначе ты её не обучишь просто).
Сейчас нейросетки (в их нынешнем виде, повторюсь) выглядят очень перспективно потому что они могут генерить очень быстро штуки, которые ещё несколько лет назад делались долго. Но чем быстрее и больше ты сможешь генерить такое, тем меньше оно будет стоить, пока в какой-то момент не получит анти-ценность. Вот видос с водолазом - выглядит прикольно, ещё лет 10 назад этот видос можно было бы вполне использовать в рекламе какого-нибудь продавца турпутёвок. Сейчас же такая хуйня, будь она сделана, привлечёт внимание только какой-нибудь нынешней забитой бабки из залупаграда. Посмотри как выглядит реклама у авиасейлса какого-нибудь, посмотри как выглядит современная реклама вообще в тиктоке том же. Для этой хуйни нейросетки бесполезны просто - если ты можешь сделать рекламу нейросеткой, то твоя реклама нахуй идёт, она не нужна уже, а нужна та, которую ещё пока нельзя сделать нейросеткой. С кином то же самое. И с играми. Вообще со всем.
>>652952 Вот это аутотренинг. Конечно всё там вторично, спи спокойно, никто твою работу не украдет. Всё хорошо. Здесь не на что смотреть, мы тут все шутим, никто сорой не будет пользоваться. Всё хорошо.
>>652952 >Вот видос с водолазом Всратая хуйня, не дотягивающая до графона уровня юнити пятнадцатилетней давности. "Перспективная" технология показывает графику отстающую минимум на десять лет и при этом требует йоба-мощностей для рендеринга. При том, что в IT 10 лет это ёбаная вечность. Как доказательство теории годится, до первого коммерческого использования как до Луны раком. Будет, как с RTX, которому потребовалось 30+ лет до начала широкого использования в коммерции.
>>652973 Думаю что ты просто не понимаешь о чём говоришь. Ни про видеопрод не понимаешь, ни про то что именно из себя генеративные модели представляют, ни про то, для чего в реальности сейчас на производстве применяются работающие модели.
>>653034 На всратость пофик, на самом деле. В конкретно этом виде оно, скорее всего в ближайшие годы уверенно сможет занять нишу "хуёвого сиджи" и однотипных стоковых видосов.
Здесь главное - не всратость, а почти_уже_стабильность самой картинки. Если не случится какого-то неожиданного стоппера, то через 2-5 лет нейросеточковые штуки вот типатой же соры (не в чистом виде, но на основе и усложнённые) имеют все шансы стать полноценным инструментом в пайплайне.
Я например надеюсь на ренесанс "большой" 2д-анимации, когда у тебя будет возможность аи-фильтрами оверпенинтить драфтовый 3д-рендер в гармоничную картинку
>>652952 >посмотри как выглядит современная реклама вообще в тиктоке том же Это ты хорошо придумал, в тикток заманивать. Работал в рекламной компании, и видел, какой рак приносит доход. И это полный пиздец, по крайней мере в сфере мобильных игр. >>653158 Вшита апишка, так что увы и ах. >>653287 >аи-фильтрами оверпенинтить драфтовый 3д-рендер в гармоничную картинку Нахуя тут АИ? Это всё алгоритмами делается. См. аниме, на данный момент уши 3д проглядывают только в динамике, если конечно студия не нищуброды с бюджетом в мешок риса.
>>653366 >А ты хотел чтоб тебе модель локально слили? Da. >Не дохуя ли хочешь? Ну лламу я локально кручу. Впрочем, у меня даже копайлота нет, ибо сижу на древней ЛГБТ версии шинды, нахуй все эти ёбанные обновы.
>>653359 Бывшему коллеге по цеху привет. Если работал, значит примерно помнишь а) как и почему делается именно такой рак б) сколько живёт конкретный креос/конкретная идея в) почему одни креосы копируются у конкурентов, а другие делаются почти с нуля
Я не спорю с тем, что даже в нынешнем виде сору можно приспособить для чего-то. Я говорю о том, что чем доступнее будет технология, тем меньше ценности будет у выходящей из неё инфомассы. Речь не о том что технология плоха, речь о том, что очень многие почему-то видят в ней волшебную палочку, которая раскулачит всех контент-мейкеров.
>>653433 >Если работал, значит примерно помнишь Если что я там сбоку стоял (пилил внутренние инструменты), но понимаю, что всё это делается по данным. Пока креатив окупается, его крутят, перестаёт, его реанимируют изменениями и потом выкидывают, как только он полностью выгорел. >Я говорю о том, что чем доступнее будет технология, тем меньше ценности будет у выходящей из неё инфомассы. Ну так будут перебором искать. Тупо вместо сотни креосов заливать 10 тыщ, и далее по данным искать среди них удачные. Плюс с такими объёмами у юзерей будут меньше замыливаться глаз. Ну а через пару лет с таким дешёвым производством контента таргетинг каждого видео будет настраиваться чуть ли не на группы по 10 человек, и это будет выгодно. Так что да, ценность снизится. Только это компенсируется объёмами. Само собой никакого раскулачивания, все те же люди будут кидать идеи в нейронки, точнее скорее всего в пайплайне останутся дизайнеры, которые по идее будут делать видео, перебирая и изменяя варианты нейронок. Вот узкие специалисты типа моушен-дизайнеров действительно пойдут на мороз (переквалифицируются в дизайнеров промтов), ибо я не представляю, как их работу приспособить к негронке.
>>653467 >будут перебором искать. Не, в этом как раз смысол, я поэтому написал про помнишь-знаешь. Запускаются не сотни видяшек рекламных - даже в больших компаниях (в топовых) у тебя может одновременно откручиваться ну несколько десятков максимум, это прям максимум-максимум. И основные затраты у тебя идут не на оплату труда 3д-рабов, а на оплату трафика. Принцип "взять количеством" просто не работает по деньгам и по нынешней модели потребления контента людьми = по нынешним алгоритмам. Да, можно сказать что это по нынешним не работает, а в будущем будут другие алгоритмы, и вот тогда-то нейросетевой продукт всех порвёт, но для этого нужно кардинальное изменение в этой самой модели потребления контента (не как отличие трубы от тт, а например как тт отличается от чтения книг), это происходит крайне медленно и ебать как инерционно, это речь про десятки лет.
И если предположить, что и без того дешёвое (повторюсь, больше всего бюджета уходит на закупку трафика если креос оказался вдруг удачным) производство раковых видяшек можно ещё удешевить в случае, если аналог Соры с мощной системой управления, с возможностью достаточно уверенно влиять на финальный видеоряд может в какой-то степени выйти на рынок на инструмент (ну или например похуй на контроль, просто рандомные по наполнению видосы как нейросетевой бог на душу положит будут выстреливать - тоже ок), то представить что в нынешнем виде, с промтами, переводящимися в "готовую" секвенцию нейросетка может занять место среди инструментов создания не_раковой рекламы (я вообще не говорю про кинематограф даже) - ну это невозможно просто. Невозможно не потому что ррряяя такого не будет потомушта такого не будет никагдаа, а потому что приспособить ты это там не сможешь. Это как говорить что микроволновка отберёт работу заводчанина потому что вот заводчанин приносит в дом еду, а микроволновка типа делает еду сразу тёплой шах и мат трудяги вы больше не нужны в этой цепочке.
Нейросетки - это очень круто, они почуть, но начинают вползать в видеопрод-пайплайн, очень-очень почуть, но они становятся реально полезными. Но это не "отняли работу на завод суки", это скорее как "я пользовался софтиной А, а в ней был инструмент Б, теперь я продолжаю пользоваться софтиной А, но к инструменту Б добавился инструмент В, а через несколько лет инструмент Б будет заменён инструментом Г"
Самое реалистичное из оптимистичных что может ждать Сору и подобные генераторы "из коробки" - они просто создадут некоторое не очень большое количество новых рабочих мест конкретно под какие-то новые, сначала экспериментальные, а потом нормально вшитые в общий пайплайн штуки, но только уже ну в виде таких вот стоковых генераторов, а в виде более сложных и сильно более узкозаточенных моделей.
Кто-нибудь может дать прогноз как после поступления массовой возможности генерации видео поведут себя обыватели вроде суеверных бабок, скуфов, селюков и попов? Как изменится бизнес в сфере мошенничества и экстрасенсорики?
>>643127 (OP) Для генерации видео это всё ещё говно, но зато оно имеет чёткое представление о 3д форме, которую рисует. Было бы круто если бы с помощью этой нейросети можно было превращать фотографии в 3д модели.
>>663139 >Для генерации видео это всё ещё говно Ебать у вас запросы, сударь. >но зато оно имеет чёткое представление о 3д форме, которую рисует. Было бы круто если бы с помощью этой нейросети можно было превращать фотографии в 3д модели. Эту мысль уже кучу раз переварили и высрали.
>>671299 Когда эта хуйня будет стоить в районе 20-30к баксов и будет реально максимально автономна и обучаема, может и пройдут нахуй. А пока 20-30к баксов это блядь в районе 5 сука лет работы заводчанина никто не будет покупать робота за 30к, когда можно петровичу оплатить. Так что заводчанам лет 5-10 еще нечего бояться.
>>671389 >лет 5-10 еще нечего бояться Я примерно про такой промежуток времени и имел ввиду. Еще 3-4 года на то, чтобы выебать наносеков, а вот потом еще пару лет, чтобы заводчан заменить.
>>671389 человек столько же стоит с рождение государство в него закладывает примерно 20-30К$ на обучение и медицину, мат капиталы вся хуйня, только человек может вырасти безработным омегой или умереть не дожив до ЗАВОДА
так что робот выгоднее, робот не пьет и ему не нужен отпуск 30 дней в году и по праздникам может работать без проблем
>>648417 >Не появятся. Там только для запуска нужны сотни гиг врама, а уж для тренировки целый кластер суперкомпьютера. Когда изобретут фотонные процессоры и видяхи тогда и в доме можно будет генерить сотни гиг цп.
>>672957 >все оплачивает государство Государственных денег не бывают. Бывают только деньги налогоплательщиков. Так что ничего бесплатного, твоих тугосерей оплачиваю я со своих налогов программиста. >>677766 Не когда а если. И да, вторая мега проблема любой нейросети это датасеты. Если у тебя есть датасет ЦП на сотни гиг, нахуй тебе сгенерированные криворукие кривопёздые видосы? И кто их будет старательно размечать? Ты же обдрочишься в процессе, не разметив и 2-х видосиков. Так что я сказал, что не появятся, значит не появятся.
>>678136 >Если у тебя есть датасет ЦП на сотни гиг, нахуй тебе сгенерированные криворукие кривопёздые видосы? И кто их будет старательно размечать? Ты же обдрочишься в процессе, не разметив и 2-х видосиков. Ты кажись не понимаешь как работают нейросети, можно разметить обычное порно и детей в купальниках, нейросеть запомнит признаки и применит их для генерации нужного цп контента, то есть обучить можно без нарушения закона если это так важно.
>>678287 >Ты кажись не понимаешь как работают нейросети Нет ты не понимаешь. >нейросеть запомнит признаки и применит их для генерации нужного цп контента Хуйню наприменяет. Можешь посмотреть, как хорошо SDXL рисует взрослые пёзды, вот такая же хуйня будет и у фейкового ЦП.
>>647203 1. Для генерации видео — я поэтому уверен, что интерполяция линейная, а объекты могут противоречить друг другу, если веришь, что она никогда не разметив и через картинки можно делать давинчи.ModNet
>>678287 Как-нибудь попробуй нарисовать перевернувшуюся на дороге машину так чтобы было видно днище. В любой сетке. Или например вид снизу из-под стола. Сразу поймёшь ограничения. Причём не только сеток, но и свои - человеку тоже затруднительно нормально нарисовать то чего он никогда не видел.
>>681798 Все видео в этом посте - не чистый выхлоп Sora, а то что сделали на его основе серьёзные дядьки, какой процент там от Sora неизвестно. Никто никогда конечно Sora не будет юзать в VFX всерьёз, потому что у ClosedAI нихуя нет инструментария. Это AI компания, а не VFX, они не понимают предметной области, да и сетка даже близко не годится в продакшен, да и тем более у них наверняка уже следующая получше в разработке (хотя бы на этапе подготовки датасета).
Этот пост - просто пропаганда среди креативщиков, чтобы не выглядеть литералли гитлерами и показать им что ИИ имеет какое-то применение. Я уж думал когда они спохватятся. Заебца, это пойдёт на пользу всем.
>>681811 gpt-5 всё сделает, как все эти компании вместе взятые даже из отдельных кусочков разных видео соры. а gpt-6 свергнет путина gpt-7 захватит мир и солнечную систему
>>682187 Вижу же, что нихуя ты не знаешь, но ты всё равно пиздишь. Квантовый компьютер не волшебная парочка, он ускоряет всего парочку типов вычислений. А к ИИ вообще мало применим.
>>682245 Квантовый компьютер этой гейм чейнджер, без него ИИ в принципе невозможен. Современные нейронки тупая хуйня, без человеческого управления негодная
>>682090 Похую какая у тебя там нейронка. Промпты не подходят для креативной работы в целом. А инструментов у КлоузедАИ нет и не предвидится. Поэтому вся блогозапись - просто реклама. Не как что-то плохое, просто констатация факта.
Тупые долбаебы спорили, что такую хуйню публично никогда не выкатят, но есть уже публичная Luma, а значит и Sora появится в ближайшем будущем публично Сука как же хочется им ебальник разбить, ух кулак чешется
>>786313 Лума генерит хуету на 5 секунд, без физики, без нихуя. Сора же может симулировать физику реального и не только мира и генерировать видосы до 1 минуты. Если и выйдет - то для корпов за пиздец какие бабки.
>>786381 Как же хочется тебе ебало разбить за твой гнилой базар. Ты из тех, кто 20 лет назад бы пиздел, что карманных компьютеров никогда не будет Генерирует хорошо, не отлично, но хорошо как для первобытной версии генераторов видосов. Законы физики соблюдают
>>786407 >карманных компьютеров никогда не будет Их и нет. Точнее, в теории устройства в кармане могут больше, чем все компутеры 2000-х, вместе взятые. А по факту пук в лужу с тиктоками и ютубами.
>>786313 Люма это кал, я не верю что это на хотя бы близко к соре по архитектуре. А вот китайская поделка неплоха, но видно что генерит видео в низком фпс и дополняет кадры между основными кадрами хуевой нейронкой, для оптимизации, да и доступа не из китая пока нет. Еще пол года до полного аналога соры в открытом доступе, если пидорасы-клоузеды не одумаются
Если посмотреть на мнение иностранцев: "вау крутая технология, большой технологический прогресс, не терпится увидеть что дальше будет" Пидорахи: "Говно, хуйня, дерьмо"
>>786407 Двачну этого. Генерил видос на Люме из картинки с машиной - так она даже движение за окном сэмулировала, ровненько так пейзажи проносящиеся, окно при этом не ломала. Понимание мира у нее какое-никакое есть. Из картинок с людьми тоже часто неплохо выходит, понимает где человек, что он делает, не ломает общую картину. Из минусов много артефактов, но может в Sora тоже самые удачные видосы нам вывалили, а на деле так же окажется с множественными вкраплениями искажений и нужно по 100 попыток, чтобы красивость получить. Поэтому до сих пор и не выпускают.
>>786381 >Сора же может симулировать физику реального и не только мира и генерировать видосы до 1 минуты. Как видно тут: >>786407 у соры специально замедленны кадры, чтоб подольше было. Но вообще, давай сгенерь в соре, ах да, ты не можешь.
>>791375 Не ну клип то сшит из кусков. Видно по логотипу Luma (да и так понятно, лол) В целом Luma и подобные генераторы видео это конечно прорыв. Т.е. генерация картинок, потом генерация текста, сейчас вот генерация видео, а потом может быть и генерация сознания например. И это уже будет что то максимально приближенное к сильному ИИ
>>795406 >А ведь когда-нибудь появится видео нейронка, которая без багов будет все идеально генерировать по твоим запросам. Но ведь даже картинка генераторы ещё до такого не дошли, кхм, почти.
Нечерепикнутые результаты ранвея конечно тот еще кал, даже люма лучше выглядит. Надежда только на то что та китайская параша пойдет на глобальный рынок. Шансов увидеть сору походу уже нет
>>808534 Почекай нечерипикнутые видосы, где сразу промпт и результат показывают. У ген-3 все еще хуево с консистентностью, но еще более хуево с пониманием промпта. Китайский клинг хотя бы хорош в плане консистентности, на счет понимания промпта хз, там нужен китайский номер чтоб протестить, а нормальных видео по нему нет.
>>810161 Ну китайская модель крайне неплоха, да. Надеюсь они выйдут в глобал все же, но им надо модель подтюнить под инглиш, надеюсь ее полностью переучивать не нужно
>>811161 Это не сора, чел, это китайская модель клинг и она есть в свободном доступе, но туда нужен китайский номер. Люма же срака та еще, объективно лучше старых моделей вроде ген-2, пика лабса и сд-видео, но все еще очень слабо.
Делаю ебанутое предположение. Сору до сих пор не открыли, потому что сора - это не видеомодель, это мультимодальная ллм, основа под гпт-5. Короче выход гпт-5 будет означать выход соры. Генерация будет прямо в интерфейсе чата с ллм, с возможностью уникального промптинга, например можно будет попросить сору заменить персонажа в видео на другого персонажа. Вы уже можете найти подобные примеры замены персонажа в примерах соры.
попенам надо было что-то выпустить чтобы не выглядеть настолько жалкими перед конкурентами, в итоге они обосрались ещё сильнее, потому что людей уже заебали их анонсы анонсов держатся пока за счёт популярности и хайпа, но этой компании уже точно пиздец из-за её конченных NDA и ушедших людей, на которых эта компания держалась
Наша любая ClosedOpenAI, по традиции, анонсировала революционный продукт. Первый полноценный, годнейший генератор видео. Наконец-то видео выглядят как видео, а не зум двухмерной картинки. Доступа пока ни у кого нет, так как они еще пилят под нее соевый фильтр, но вы можете чекнуть примеры по ссылке:
https://openai.com/sora
Спойлер: ЭТО ПРОСТО ОХУЕННО
В этом тредике мы ждем выхода модели в открытый доступ и пытаемся получить к ней доступ всем тредом, после того как ее официально откроют для всех желающих, ибо нам его конечно же так просто не дадут, ребята.