24 декабря 2023 г. Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна. Подробности случившегося. Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!

Sora

 Аноним 16/02/24 Птн 01:15:29 #1 №643127 
1708035318109.mp4
Достойно отдельного треда я считаю.

Наша любая ClosedOpenAI, по традиции, анонсировала революционный продукт. Первый полноценный, годнейший генератор видео. Наконец-то видео выглядят как видео, а не зум двухмерной картинки. Доступа пока ни у кого нет, так как они еще пилят под нее соевый фильтр, но вы можете чекнуть примеры по ссылке:
https://openai.com/sora
Спойлер: ЭТО ПРОСТО ОХУЕННО

В этом тредике мы ждем выхода модели в открытый доступ и пытаемся получить к ней доступ всем тредом, после того как ее официально откроют для всех желающих, ибо нам его конечно же так просто не дадут, ребята.
Аноним 16/02/24 Птн 02:19:17 #2 №643147 
.mp4
.mp4
.mp4
.mp4
Никаких сроков по релизу ещё не давали? Понять бы, насколько приемлемые результаты выдаёт в целом, или это лютый черри-пик всё.

Цензура там будет по типу DALLE-3 - два фильтра, один будет проверять промпт, а второй чекать покадрово на запрещённый контент:
> In addition to us developing new techniques to prepare for deployment, we’re leveraging the existing safety methods that we built for our products that use DALL·E 3, which are applicable to Sora as well.
> For example, once in an OpenAI product, our text classifier will check and reject text input prompts that are in violation of our usage policies, like those that request extreme violence, sexual content, hateful imagery, celebrity likeness, or the IP of others. We’ve also developed robust image classifiers that are used to review the frames of every video generated to help ensure that it adheres to our usage policies, before it’s shown to the user.
Аноним 16/02/24 Птн 02:22:42 #3 №643150 
>>643147
Они показали так же косячные результаты для примера. Я думаю черипик, само собой, но в целом 50/50 будет выдавать достаточно хорошие результаты
Аноним 16/02/24 Птн 02:38:15 #4 №643160 
>>643127 (OP)
Если не фейк, то ДАЙТЕ БЛЯДЬ. Потому что слишком заебись
Аноним 16/02/24 Птн 06:01:00 #5 №643199 
>>643147
С цензурой не интересно, но надеюсь, что она будет легко обходиться.
Аноним 16/02/24 Птн 06:03:29 #6 №643201 
Есть ли такая вероятность, что каждый желающий сможет потом скачать тебе такую же нейронку на пк? Ну как С Т, м? Соевые фильтры не нужны, я хочу нагерерить порнушку. А какие-то там блядь мамомонты и котики мне не нужны.
Аноним 16/02/24 Птн 06:08:13 #7 №643202 
>>643201
В течении ~3 лет - вполне вероятно, что что-то качества Sora появится локально.
Аноним 16/02/24 Птн 06:13:14 #8 №643204 
>>643202
Хуя се, а СТ не так долго ждали...
Аноним 16/02/24 Птн 11:06:37 #9 №643271 
Бля, а для порно такое когда появится?
Аноним 16/02/24 Птн 11:09:07 #10 №643272 
Бизнесу со стоковыми фото и видео теперь точно пизда. Ну и хуй с ними.
Аноним 16/02/24 Птн 11:11:29 #11 №643275 
>>643199
За обход будут банить аккаунты, наверняка будут генерить цп и гуро, а это у них на серваках хранится и они будут это чекать периодически.
Аноним 16/02/24 Птн 11:53:03 #12 №643291 
chair-archaeology.mp4
>Archeologists discover a generic plastic chair in the desert, excavating and dusting it with great care.
Аноним 16/02/24 Птн 12:04:08 #13 №643298 
>>643291
Весь прикол в том, что с этой моделью даже это выглядит охуенно, плавно и качественно. Если бы мне показали это до эпохи нейронок, я бы подумал что какая-то крутая команда CGI экспертов потели часы над тем чтобы сделать смешной забагованный стул в реальном футаже.
Аноним 16/02/24 Птн 12:29:19 #14 №643310 
А когда выкатят доступ к соре?
Аноним 16/02/24 Птн 12:36:04 #15 №643315 
>>643127 (OP)
Вброшу пост с информацией, который украл из /b.

Коммент от одного из лучших спецов: "Ключевых деталей вроде точной архитектуры, принцнипа сборки и фильтрации датасета нет, но всё же интересности нашлись. Тезисно:

—OpenAI продолжают развивать свой путь к выучиванию большими нейронками картины мира просто из доступных данных, без лишних усложнений. Если вы смотрели лекции 1.1 (https://youtu.be/l-l82uNwyu8)[РАСКРЫТЬ] и 1.2 (https://youtu.be/jKd_CdRh7U4)[РАСКРЫТЬ] моего курса, то для вас это не новость — я рассказывал, что ещё в 2017м году до GPT-1 топовые исследователи делали Proof-of-Concept для этого. Отсюда и название работы: модели генерации видео как СИМУЛЯТОРЫ МИРА
—Также как и для других моделей, здесь соблюдаются законы масштабирования: больше моделька, больше вычислительных мощностей = лучше результат. Боюсь представить, сколько времени это всё училось.
—Обычно модели генерации видео учатся на обрезанных до одного и того же (малого) размера кадра. Например, 256x256 пикселей. В OpenAI решили тренировать на том, что было, в разрешении вплоть до FullHD и с любым соотношением сторон. Это позволяет Sora генерировать хоть вертикальные видео, хоть горизонтальные, хоть аналоги того, что снимают на плёнку 2.35:1 (https://youtu.be/fZF1VK8D3Pw?t=210)[РАСКРЫТЬ]
—Для тренировки такой модели нужно огромное количество видео с грамотно составленным текстовым описанием. Такого контента в мире мало, поэтому делают тот же трюк, что был применён в DALL-E 3: обучают отдельную модель для написания высококачественного, но короткого описания, а затем с помощью GPT-4v расшивают его деталями. Обучение на синтетических описаниях значимо увеличивает качество генерации, отмечают исследователи
—Так как в основе лежит трансформер, который принимает вектора и выплёвывает вектора, то можно делать разную магию: можно генерировать не видео, а изображение, можно просить анимировать уже нарисованную кем-то или чем-то картинку, можно просить догенерировать видео — причём не обязательно только в будущее, можно получить и кадры из прошлого, что предшествовало куску видео. А ещё можно заставлять модель склеивать пары видео в одно (примеры скину ниже)

И теперь самое главное: навыки, которым никто модель не учил, но которые сами по себе появились из-за беспрецедентного (™) масштаба:
—согласованность 3D пространства: камера может свободно перемещаться в «виртуальном мире» (существующем в момент генерации), крутиться итд.
—постоянство объектов в кадре и долгосрочная память: в течение всего видео какие-то ключевые объекты не будут менять ни форму, ни текстуру (как это бывало почти у всех предыдущих моделей). Если какие-то объекты пропадают из кадра, то часто появляются такими же, какими были до исчезновения, и в правильном месте
—интерактивность мира: объекты могут взаимодействовать и реалистично изменяться, хоть и не идеально (см. примеры ниже)
—симуляция цифровых миров: вот это очень интересный пункт. Sora может воссоздать мир игры Minecraft (жаль какую-то динамическую стрелялку не показали!) и одновременно управлять игроком в Minecraft (вернее симулировать поведение игрока), а также отображать мир и его изменение с высокой точностью. И всё это без детального описания в промпте. Эти «навыки» модели позволяют предположить, что дальнейшее масштабирование видеомоделей является многообещающим путем к разработке высокофункциональных симуляторов физического и цифрового миров, а также объектов, животных и людей, которые «живут» в них. Звучит как фантастика, но серьёзно —а что остаётся модели делать, чтобы хорошо предсказывать часовые видео? Приходится симулировать действо в них, понимая логику всех объектов, самого физического мира и его правил.

Увеличим модельку ещё —увидим, к чему это нас OpenAI приведёт!"
Аноним 16/02/24 Птн 12:45:12 #16 №643319 
1708076711545.jpg
>>643315
Ну это было очевидно с учетом того, что они по факту это напрямую сказали в своем анонсе, что видеомодель помогает ИИ понимать мир и нужна для создания AGI. Более того, Сэм еще задолго до этого при разговоре о GPT 5 и ее мультимодальности говорил о том что она будет воспринимать видеоконтент. Я думаю эту модель пилили уже почти год. Другое дело, что она, как можно видеть, еще не очень хорошо симулирует реальный мир, более того, она все еще не способна в правильное количество пальцев, и даже правильное количество конечностей (в примере с красными пандами). Вот тут например хоть и вымышленный персонаж, но у него буквально разное количество пальцев на разных руках и ногах.
Аноним 16/02/24 Птн 13:06:33 #17 №643328 
СЛОВНО ХУЙ ДРОЧЕНЫЙ В ЖОПУ ПИДОРА
SORA В ИНТЕРНЕТ ЗАШЛА
НЕ ОСТАВИВ КИНОДЕЛАМ ВЫБОРА
ГЕНЕРИТЬ ВИДОСЫ НАЧАЛА

СКОРО РЕЖИССЁРЫ ВЫ ОТВЕТИТЕ
ЗА КРИВОЙ ГРАФОН, РАЗДУТЫЙ БЛЯ БЮДЖЕТ
ЕСЛИ НЕ ИЗДОХНИТЕ ПОЕДИТЕ
СНИМАТЬ УТРЕННИК ЗА ТЫСЯЧУ МОНЕТ


С уважением, компания Open AI
Аноним 16/02/24 Птн 13:41:44 #18 №643348 
>>643127 (OP)
КАК СГЕНЕРИРОВАТЬ БЛЯТЬ?
ПОЧЕМУ ВСЕ НА ПЕРЕМОГЕ, А КНОПКИ ГЕНЕРАЦИИ НИГДЕ НА САЙТЕ НЕТ
Аноним 16/02/24 Птн 13:47:55 #19 №643354 
image.png
image.png
Аноним 16/02/24 Птн 13:53:13 #20 №643358 
>>643354
Хоспаде, какие же нормисы мерзкие. В первую очередь при выходе топовой видео модели думают о генерации маленьких голеньких детишек и при этом сами еще кого-то педофилами называют.
Аноним 16/02/24 Птн 14:11:47 #21 №643363 
image
>>643358
База, это же в нескольких шагах от HOLODECK'а из стартрека, а какие еще развлечения кроме наркотиков нужны марсианскому колонизатору? А Маск целый миллион таких хочет завезти - каждому по нейролинку и можно ебашить 18 часов в день и развлекаться в матрице твоих фантазий перед сном.
Аноним 16/02/24 Птн 14:14:04 #22 №643366 
Зомбиподобные существа с рандомно меняющимися своими местами ногами проплывают на фоне малополигональных задников, выглядящих как результат фотограмметрии образца начала нулевых. И все это работает на здоровенном кластере из А100. Ща эффективные начнут пачками увольнять, потому что вот-вот выпустят кнопочку "сгенерировать сериал нетфликс", а потом будут с фонарем искать челов которые хотя бы в теории знают как устанавливать тридэмакс.

>ждем выхода модели в открытый доступ
Ждите, и обождетесь.
Аноним 16/02/24 Птн 14:21:10 #23 №643369 
>>643201
Такой вероятности в принципе нет. Более того, его даже для публики скорее всего не откроют, по легенде - чтобы не наделали политических фейков. В реальности потому что жрет ресурсов как не в себя, и куча технических косяков. У них задача сейчас показать черрипикнутые примеры голивудским экзекам и уломать их влошиться на бабло, потому что вечно жить рассказами про AGI не получится и нужно опукать железо и индусов.
Аноним 16/02/24 Птн 15:15:59 #24 №643397 
1708085758021.jpg
>>643369
>Более того, его даже для публики скорее всего не откроют

>>643366
>Ждите, и обождетесь.

Таблетки
Аноним 16/02/24 Птн 15:42:40 #25 №643409 
>>643315
>увидим, к чему это нас OpenAI приведёт!
Приведет к "Runtime Error: Out Of Memory"
Аноним 16/02/24 Птн 21:20:40 #26 №643609 
>>643319
ты слепое шизло? по 6 пальцев на каждой конечности

где ты там увидел разное количество? уже совсем окосел от дрочки бля, свои пальцы пересчитай может 8 на одной руке насчитаешь XD
Аноним 16/02/24 Птн 21:29:50 #27 №643617 
1708108189665.jpg
>>643609
Пчел, ты....
Аноним 16/02/24 Птн 21:33:58 #28 №643622 
Зеленский педофил [email protected]
>>643358
правильно думают)
Аноним 16/02/24 Птн 23:45:20 #29 №643747 
Там у CGIшников на ютубе лихорадочная тряска. Сокращенный итог: они готовятся к увольнениям.
Аноним 17/02/24 Суб 00:20:45 #30 №643778 
>>643298
А я до сих пор так думаю, ибо слишком круто сука.
Аноним 17/02/24 Суб 00:21:18 #31 №643781 
>>643271
Когда в опенсорсе будет что-то подобное, вангую, что года через 2-3 не раньше, ибо тут суперкомпьютеры нужны.
Аноним 17/02/24 Суб 00:49:11 #32 №643821 
>>643354
Уже нашли стоки с которых эта сора спиздила обучилась?
Аноним 17/02/24 Суб 00:53:55 #33 №643826 
>>643354
>>643821
Конкретно интересно сравнить на примере с этими щенками
Аноним 17/02/24 Суб 01:11:06 #34 №643839 
>>643127 (OP)
пусть для начала справятся с тем чтобы гптыня мне не выдумывала методы на каждый запрос

мимо-анальник
Аноним 17/02/24 Суб 01:21:18 #35 №643841 
prompting3.mp4
Кто-то спрашивал как эта модель может в 2d видео
Аноним 17/02/24 Суб 01:36:54 #36 №643846 
Ебать, тут еще много годного контента оказывается. Но страница лагает что пиздец и еле грузится https://openai.com/research/video-generation-models-as-world-simulators
Если есть возможность выкачайте оттуда самое годное и закиньте сюда, у меня не выходит
Аноним 17/02/24 Суб 02:28:08 #37 №643866 
1708126069928.mp4
1708126069932.mp4
>>643846
1. Зацикленное видео
2. Эпичный переход с одного видео в другое видео
Аноним 17/02/24 Суб 02:32:03 #38 №643869 
1708126309413.mp4
simulation6 (2).mp4
>>643866
1. Еще один эпичный переход
2. Как оно генерирует Майнкрафт
Аноним 17/02/24 Суб 05:23:55 #39 №643893 
656565656565656565.mp4
подборка генераций
Аноним 17/02/24 Суб 05:36:24 #40 №643901 
rapidsave.comsoracancombinevideos-gzawu3e7kvic1.mp4
Примеры сшивания двух видео
Аноним 17/02/24 Суб 05:41:59 #41 №643903 
А чего новых видосов нет больше со вчерашнего дня? Журналюги наигрались?
Аноним 17/02/24 Суб 05:44:02 #42 №643904 
>>643869
Меня поражает ещё то, что эта хуйня понимает физику в майне. Игрок же толкнул свинью, или мне кажется?
Аноним 17/02/24 Суб 05:47:55 #43 №643906 
17080752413820.mp4
17080751732410.mp4
>>643903
Аноним 17/02/24 Суб 05:54:16 #44 №643908 
6565566565656565.jpg
>>643904
Аноним 17/02/24 Суб 06:04:27 #45 №643913 
Маркетинг от клоузедАИ в своём духе - альтман ляпнул про подъём 7 гигаллионов инвестиций, и тут же показал завлекаловку. Работает безотказно, однако.
Аноним 17/02/24 Суб 06:18:11 #46 №643914 
>>643908
>>643904
Симуляция не особенно убедительная, на самом деле - в видосах видно как оно ломает перспективу, например ломая горизонт соляного озера в том видосе про астронавта, или где собаку пускают на траву в парке. Тогда какая это нахер симуляция если у него две перспективных плоскости не сходятся?

С другой стороны, у человеков тоже схожая херня, просто более продвинутая. Каким-то образом ты воспринимаешь прямые линии прямыми, имея угол обзора двумя глазами 180° или даже больше. Это математически невозможно, но тебе это не мешает. Всё потому что мозг гоняет нейронный SLAM в реалтайме, и видит вовсе не картинку, а набор эмерджентных абстракций, которые могут противоречить друг другу, если из них вдруг пикчу сгенерить.

А так в самом факте эмерджентной симуляции ничего особенно удивительного нет, это натура сеток. Диффузионные сетки например вообще себе сами свой язык выдумывают при попытке генерации текста, это ещё давно выяснили. С графемами и прочими атрибутами.
Аноним 17/02/24 Суб 06:29:49 #47 №643915 
>>643781
Ну это просто видеотрансформер, т.е. обычный трансформер у которого токены это латенты извлечённые из видосиков, а выходной "текст" это предсказанная последовательность этих латентов. Тут вопрос скорее в качестве и подготовке датасета, очевидно что они гоняют мультимодалки на отдельных кадрах и на целых сиквенсах для классификации.
Аноним 17/02/24 Суб 06:30:31 #48 №643916 
>>643904
А меня поражает, как llm понимает, что после точки нужно писать с заглавной буквы. А, погоди, она же триллион раз это видела во время обучения, вот и повторяет бездумно, точно.
Аноним 17/02/24 Суб 06:35:32 #49 №643918 
CR00030001.jpg
>>643916
Нейраны, не иначе к нам в тред СТОХАСТИЧЕСКИЙ ПОПУГАЙ забрёл! Вымирающий вид. Предлагаю его ощипать.
Аноним 17/02/24 Суб 06:51:17 #50 №643921 
>>643918
Cейчас бы верить уебанам, которые рассказывают про симуляцию реальности. Хотя, если из долбоёбов, которые верили, что GPT-3 станет AGI, потом верили, что GPT-4 станет AGI и сейчас верят, что GPT-5 станет AGI, то всё возможно.
Аноним 17/02/24 Суб 07:00:29 #51 №643922 
>>643921
Кто там верит про AGI в гопоте, дурачина? Да и чтобы ты понимал, клоузедАИ использует собственное определение AGI: высоко-автономные сущности, которые выполняют работу лучше людей в большинстве экономических задач. А не "похожие на них" или "превосходящие во всём".

Если тебя удивляет обычное эмерджентное поведение и что сетка учит концепты/абстракции и комбинирует их, тебе стоит немного разобраться как эта хуйня работает, стохастический ты ПЕТУХ. Это просто блять визуальная демонстрация того что и так все давно знали.
Аноним 17/02/24 Суб 07:12:27 #52 №643923 
>>643922
>Кто там верит про AGI в гопоте
Так долбоёбы вроде тебя и верят.
>выполняют работу лучше людей
Смотря с какими людьми сравнивать, если с синдромом дауна, то да, гопота сравнялась, скорее всего. Но всё ещё не лучше.
>сетка учит концепты/абстракции и комбинирует их
В этом как раз ничего удивительно и нет, долбоёб. Я об этом изначально писал - она просто заучивает, что видит, и повторяет.
Аноним 17/02/24 Суб 07:39:44 #53 №643928 
d6e4cebc509dd483f150ede10b40a3c4.jpg
>>643922
Стоит напоминать, что Ян ЛеКун за полгода до демонстрации возможности GTP-4 на пикрелейтеде, в подкасте у Лекса Фридмана заявил, что нейросеть НИКОГДА не сможет дать правильный ответ на этот вопрос?
Аноним 17/02/24 Суб 08:12:23 #54 №643932 
>>643928
Известная проблема, сейчас много нейронок тренируют на бенчмарки.
Аноним 17/02/24 Суб 11:10:56 #55 №643992 
>>643901
Это ебануться как круто.
Аноним 17/02/24 Суб 11:50:05 #56 №644020 
>>643901
А с тигром и машиной где? Как по мне самое ахуенное
Аноним 17/02/24 Суб 14:14:15 #57 №644090 
>>643914
Это уже лучше чем перебор картинок
Аноним 17/02/24 Суб 16:48:47 #58 №644153 
>>643923
>учит концепты/абстракции
>учит то что видит
Нахуй иди, стохастический ПЕТУХ.
Аноним 17/02/24 Суб 16:51:33 #59 №644156 
>>643928
Вот это и есть абстракции и концепты. К AGI в определении OAI это отношения не имеет, конечно, т.к. определение экономическое.
Аноним 17/02/24 Суб 17:35:08 #60 №644198 
>>644156
Это если бот на самом деле понимает вопрос, а не просто обучен отвечать на конкретные вопросы конкретным образом. Как с той же цензурой.
Аноним 17/02/24 Суб 17:54:24 #61 №644221 
gta.webm
На большинстве видосов видна жосская интерполяция между ключевыми фреймами. Напиминает как я на видеорилейтеде развлекался c ebsynth, оно основывается на 4 кадрах. То есть я гарантирую что даже их HPC-кластер не в состоянии честно генерировать весь видос, и приходится обмазывать все каким-то умным интерполятором на базе отдельной сетки. И из-за этой интерполяции на всех видосах двигаются как плывут, потому что интерполяция линейная, а движения должны быть не. Если бы видео генерировалось честно, движения были бы натуральными.

Ну и скорее всего процесс в целом выглядит так. Сначала диффузия генерирует фрейм, затем вторая сетка дистортит этот фрейм моушн-векторами на 10-12 кадров вперед, затем на фрейм накладывается маска и часть под маской перерисовывается диффузией 100500 раз, и на основе этих 100500 новых кадров третья сетка-дискриминатор делает композит одного фрейма, который может быть с минимумом трансформаций преобразован в предыдущий фрейм. Затем в область незакрытую маской делается инпейнт новой визуальной инфы, за счет этого инпейнта возможны глюки как на видео с клонирующимися львами. Затем четвертая сетка делает 10 кадров интерполяции между ними.
Аноним 17/02/24 Суб 18:07:12 #62 №644241 
>>644221
Где ты там увидел "жоскую интерполяцию" хоть на одном из видосов?
Аноним 17/02/24 Суб 18:16:23 #63 №644251 
>>644241
То есть ты не видишь что на видосе с коровами коровы дергаются как спрайты в первом думе?
Аноним 17/02/24 Суб 18:29:39 #64 №644271 
>>644221
>жосская интерполяция между ключевыми фреймами
Подозреваю, что это не интерполяция, это давка аи шумов. Всю картинку глючит, но потом шум просто откатывается на прежние позиции, но откатывается не каждый кадр, а как в каком-нибудь TAA. В то, что там есть хоть какие-то моушн векторы вообще не верю, для этого нужно, чтобы сетка видела не плоскую картинку, а хотя бы по слоям.
Аноним 17/02/24 Суб 19:55:04 #65 №644390 
>>644221
>>644251
>>644271
Выше же блогозапись есть как это работает. >>643846 Это просто трансформер, у которого вместо текстовых токенов видеолатенты, выжатые из видосов в автоэнкодер при обучении. Это не кейфреймы в прямом смысле, они семантические и представляют собой "смысловые куски" клипа. Трансформер выстраивает их в осмысленный ряд, получая общий сценарий клипа. Диффузионная часть работает покадрово, интерполируя между видеолатентами.

Очевидно что латенты имеют какую-то разрешающую способность/степень сжатия. Чтобы влезть в имеющееся железо, каждый латент описывает довольно крупный кусок клипа. Отсюда ощущение что всё плывёт, не потому что там линейная интерполяция (инфу о движении он естественно тоже содержит), а просто потому что они зашакалены слишком сильно. Короче плывущий эффект это аналог нейропоноса, но для движения.

В общем-то ничего нового (помимо их DALL-Eшной фишки с обучением на развёрнутых кэпшенах), просто как обычно OAI сделали это лучше всех и получили результат лучше всех.

Никакого инпеинта, TAA и всякого постпроцессинга там конечно нет, можно быть 100% уверенным что результат получен максимально дубовым путём и в общем описании они ничего не скрыли. OAI это ведь не VFX компания, а AI-яйцеголовые. Они не картинки или текст генерят, они пытаются замаксить мозги у своих моделей и выработать сложное эмерджентное поведение. Для них все эти DALLE, GPT и прочие подобные это промежуточные эксперименты, плюс отчёт о работе, и прикольный побочный продукт за который кто-то платит бабки и снабжает следующие эксперименты. Они даже не стараются причесать выхлоп того же DE3, как артефачил так и артефачит, а эта сетка у них была готова ещё в марте 2023, они пытались её всё это время зацензурить. А вы говорите про инпеинт. Да он их не ебёт вообще, это 100% выхлоп чистой сетки.
Аноним 17/02/24 Суб 20:11:08 #66 №644418 
>>644390
>та сетка у них была готова ещё в марте 2023, они пытались её всё это время зацензурить
А элизабет холмс не выпустила свой анализатор, потому что боялась что теранос оставит врачей без работы
Аноним 17/02/24 Суб 20:13:55 #67 №644421 
image1.png
image3.png
>>644390
>всякого постпроцессинга там конечно нет
Ну денойз как минимум там точно есть, потому что артефакты а-ля CRT фильтр там каловые
Аноним 17/02/24 Суб 20:31:02 #68 №644437 
Screenshot 2024-02-17 at 20-24-49 Beyond OpenAI Sam Altman The Investor Takes Center Stage.png
Кстати к слову о тераносе, ви будете смеяться, но таки да. Вот настолько там все плохо с фантазией. Еще можно нарыть туннелей и сделать тротуарную плитку с солнечными панелями.
Аноним 19/02/24 Пнд 04:19:49 #69 №646029 
>>643906
>1
как она большим пальцем по карману мусолит. у меня встал
Аноним 19/02/24 Пнд 10:17:47 #70 №646109 
160950311148.jpg
Примеры с кетайскми порномуьтиками выкладываи? Где кетайские порномультики?
Аноним 19/02/24 Пнд 11:21:18 #71 №646136 
>>646029
Становящийся полупрозрачным палец это кстати такой характернейший симптом склейки из кусков с фильтром fade in
Аноним 19/02/24 Пнд 11:44:17 #72 №646149 
>>646029
а как тебе каблуки из поролона
Аноним 19/02/24 Пнд 12:14:17 #73 №646168 
IMG0824.MP4
IMG0821.MP4
IMG0822.MP4
>>643127 (OP)
Аноним 19/02/24 Пнд 13:36:40 #74 №646211 
>>646109
Двачую, самое важное и не выложили.
Аноним 19/02/24 Пнд 17:38:45 #75 №646385 
“realistic video of people relaxing at beach..” #Sora #AI.mp4
Аноним 19/02/24 Пнд 18:57:16 #76 №646479 
>>646385
Охуела от того что плавник к акуле приплыл позже акулы
Аноним 19/02/24 Пнд 18:59:07 #77 №646483 
1708358347058.jpg
>>646385
А еще с того что у акулы есть рука
Аноним 19/02/24 Пнд 19:52:35 #78 №646518 
OpenAi sora a giant duck walks through the streets in Boston.mp4
Я сегодня узнал что для того чтобы обучить с нуля сраную 3B LLM нужно гонять кластер из 16 H100 примерно 120 суток, а вычислительная мощность которая ушла чтобы сделать возможным этот шедевр наверное больше чем то что ушло на рендер всех пиксаровских мультиков по 2012 включительно.
Аноним 19/02/24 Пнд 20:31:11 #79 №646550 
>>646483
и количество запасных конечностей у чувака
Аноним 20/02/24 Втр 10:54:18 #80 №646916 
>>644418
Тебя удивляет что они долго мурыжат сетки прежде чем выпустить? Та же гопота-4 была анонсирована за полгода до выпуска, всё это время её мурыжили, и неизвестно сколько прошло до анонса. У них бзик на цензуре, оправдываемый страшным ИИ который нельзя выпускать.
Аноним 20/02/24 Втр 11:20:39 #81 №646920 
Что даст эта технология? Кто может объяснить?
Аноним 20/02/24 Втр 11:43:28 #82 №646924 
image.png
>>646483
А нога тебя не смутила бесхозная?
Аноним 20/02/24 Втр 11:44:19 #83 №646925 
image.png
>>646518
Ты идиот.
Аноним 20/02/24 Втр 11:45:14 #84 №646926 
image.png
>>646920
>Что даст эта технология? Кто может объяснить?
Аноним 20/02/24 Втр 11:51:07 #85 №646929 
>>646926
Реальное порно все равно лучше
Аноним 20/02/24 Втр 12:31:02 #86 №646953 
Я не доживу до момента когда это будет доступно
Аноним 20/02/24 Втр 12:32:03 #87 №646954 
>>646953
Тебе больше 70 или раком болен?
Аноним 20/02/24 Втр 12:38:16 #88 №646962 
>>646954
второе
Аноним 20/02/24 Втр 12:47:36 #89 №646974 
>>646953
>>646962
Живые будут завидовать мертвым. То есть мертвых "воскресят" в будущем с помощью технологий квантовой физики, а живым придется жить триллионы лет до этого "момента".
Аноним 20/02/24 Втр 14:28:14 #90 №647032 
fedorov-1.jpg
>>646974
Адепт Федорова в треде. Все в дилиджансъ.
Аноним 20/02/24 Втр 15:56:15 #91 №647103 
>>646920
Даст очередную икону для соевых с реддита. А может и не даст, потому что с каждым разом хайпа все меньше.
Аноним 20/02/24 Втр 16:22:53 #92 №647140 
>>646920
Видеостоки больше не нужны, индусы рисующие дешёвый графон больше не нужны, аниматоры мультиков больше не нужны, порноактрисы больше не нужны, актеры массовки больше не нужны.
Аноним 20/02/24 Втр 16:55:46 #93 №647179 
>>647140
Насчет видеостоков только согласен.
Уже год как есть генератор картинок. Что это дало за год? Это как-то изменило что-то? Где какое-то применение нашли нейрокартинки?
Аноним 20/02/24 Втр 17:04:44 #94 №647187 
>>647179
Я в своей работе постоянно применяю. Для меня нейронка заменила фотошоп почти. Генерю текстуры, оформление для шрифтов, расширяю готовые кадры, апскейлю шакальные. Недавно монтировал одну документалку про известную личность 19 века, у которой от силы 10 портретов было, я нагенерил еще 40, подвоха никто не заметил. Будущее уже наступило.
Аноним 20/02/24 Втр 17:09:29 #95 №647192 
>>647187
У тебя ютуб канал по истории или чем ты занимаешься? Генерить текстуры звучит как 3д моделинг
Аноним 20/02/24 Втр 17:18:43 #96 №647193 
>>647192
Делаю видеокалтент на заказ: съёмка, монтаж, компграфика, моделю тоже. Забыл добавить, что с приходом видеонейронок и видео редакторы тоже улучшатся, замазать лишний объект, добавить объект, заменить фон, заменить эмоцию на лице, это всё будет делать нейронка.
Аноним 20/02/24 Втр 17:37:18 #97 №647203 
>>647179
То что ты этого не видишь лишь говорит о том что это хорошо работает, а не о том, что это нигде не применяют
Аноним 20/02/24 Втр 17:47:50 #98 №647209 
>>647179
>Где какое-то применение нашли нейрокартинки?
В print on demand это сейчас тренд.
Аноним 20/02/24 Втр 18:48:19 #99 №647235 
>>647179
Нашли применение в сфере промышленного засирания ютуба говном накрученным ботами
Аноним 20/02/24 Втр 18:58:17 #100 №647236 
image.png
>>643869
Итого, AI апскейлинг для текстур в играх уже обычное дело, можно не парится с 4к текстурами, есть технологии, чтоб кадры до 60+фпс поднимать реалистично, даже 3080 картошки смогут любой ААА 2024 года запустить. С этой технологией можно будет целые анимации генерировать, например вместо частиц и шейдеров при взрыве гранаты показывать сам взрыв сгенерированный. Будущее игровой индустрии кажется светлым.

Если помечтать, то и в AR можно прикрутить. Представьте как идете по дороге, всюду грязь и говно. Говорите в Apple Vision Pro "сделай красиво" и повсюду радуга, бомжи на единорогов заменяются.

Надеюсь, что такими темпами и до модели симуляции мира не далеко. Хочу шлем надеть и погрузится.
Аноним 20/02/24 Втр 19:04:41 #101 №647237 
>>647236
>Хочу шлем надеть и погрузится.
Нет бы говно и бомжей убрать.
Аноним 20/02/24 Втр 19:25:56 #102 №647247 
>>647236
По поводу погружения. На реддите соевые интересную тему задвинули - замена наркотикам. Будет легальный и безопасный для здоровья способ уйти от реальности и галлюцинировать веселыми картинками. Ещё и экономней наркотиков с аналогичным эффектом, ведь шлему только подзарядка нужна будет после покупки.
Аноним 20/02/24 Втр 19:47:02 #103 №647256 
image.png
>>647247
>легальный
Обзовут наркоманией и начнут лечить.
Аноним 20/02/24 Втр 19:51:22 #104 №647260 
>>647247
Алсо сами по себе картинки эйфорию не вызывают. нарки жрут ради физического действия на нервную систему - выбросы эндорфина допомина адреналина и прочего говна, а не ради цветных пятен. Ты можешь конечно дрочить, но как показали последние два года - варикацеле тебя успешно остановит. Вот тогда ты и полезешь жрать наркоту или отрезать себе хуй и т.д. и т.п. Сам по себе визуал - хуйня, каким бы крутым он ни был, мозг у человека от такой хуйни надежно защищен. Реальное будущее - это только мозговые чипы, которые позволят стимулировать нервную систему без наркоты, ну пока не сожжешь к хуям, конечно. А так, ну ты маленький или тупой, походу, если на цветные картинки еще ведешься. Поживи немного подольше, поперди в диван побольше, попробуй какая пизда на вкус, осмысли бытие, когда вкус приестся.
Аноним 20/02/24 Втр 20:08:54 #105 №647268 
VR.mp4
>>647236
>Хочу шлем надеть и погрузится.
Аноним 20/02/24 Втр 20:11:59 #106 №647269 
>>647260
Чувство страха и через картинки можно вызывать - как пример хоррор фильмы.
Эмоции, слезы, любопытство - с этим и книги уже как тысячелетия справляются, сериалы просто повторяют успех.
Эндорфин, адреналин - интернет казино на многих психологических принципах свои слоты строит, чтоб эти самые выбросы и стимулировать, исследований куча, из-за детской зависимости был скандал в ЕС и кейсы убирали из игр в Play Market.
И сами игры множество вещей в себе несут - доминирование, радость от победы.

Так что тупой тут только ты, если веришь, что картинки не способны вызывать эйфорию, когда на самом деле там целый спектр возможных вызываемых эмоций и вся индустрия развлечений ссыт тебе в пятак.
Аноним 20/02/24 Втр 20:18:06 #107 №647279 
>>647269
>Чувство страха и через картинки можно вызывать - как пример хоррор фильмы.
>Эмоции, слезы, любопытство - с этим и книги уже как тысячелетия справляются, сериалы просто повторяют успех.
То есть тысячи лет люди не нуждаются в психотропных веществах, понятно. Так и запишем: дебил.

>Так что тупой тут только ты, если веришь, что картинки не способны
Какая же безмозглая малолетняя соя, пиздец просто.
Аноним 20/02/24 Втр 21:22:13 #108 №647344 
>>647279
>То есть тысячи лет люди не нуждаются в психотропных веществах, понятно.
Ну, нормальные люди не нуждаются, да. Как там у наркоманов - не в курсе.
Аноним 20/02/24 Втр 21:26:13 #109 №647352 
>>647279
> То есть тысячи лет люди не нуждаются в психотропных веществах, понятно
Шизло, ты написало, что мозг человека защищен от визуала. Индустрия развлечений, которая с пруфами способна создавать продукты вызывающие нужные реакции в мозгу через визуал тебе в ебальце нассала, а ты с глупым видом ещё и за добавкой пришел.

В случае создания шлема с технологией подобной Sora человек сможет сам по запросу вызывать приятные образы и наблюдать их проекцию в риал-тайм, покажи такое тысячу лет назад уебище?

> Какая же безмозглая малолетняя
В зеркале у тебя? В следующий раз перед тем как высирать про "нарики жрут не ради цветных пятен" изучи историю, в которой куча примеров, когда люди употребляли вещества не ради эйфории, а ради именно картиночек в голове - шаманы и разные племена, которые утверждали, что в спиритических целях употребляют. Из популярных наркотиков кетамин не вызывает эйфорию и применяется в т.ч. для ухода от реальности. Есть те кто из любопытства LSD пробуют, в DrugsLab был эпизод, где показывали эффекты и людям действительно может нравится смотреть на картинки, а не чувство самой эйфории.
Аноним 21/02/24 Срд 05:27:00 #110 №647591 
>>647269
>Чувство страха и через картинки можно вызывать - как пример хоррор фильмы.
В хоррорах кассу делает драма, саспенс и звуковое сопровождение, а не визуал. Замени скрежущее пиликание и субнизкие частоты на легкую музычку или сделай характеры и вотэтоповороты предсказуемыми - и все, магия хоррора сдулась.

И в целом, доля визуала в темпоральных искусствах и развлечениях слишком переоценена. Внимание плебса удерживает спейсинг, тайминг и семантические композиционные структуры, а не графоний. Графоний привлекает только детей и инфантильных марвелодебилов, у которых еще не созрела префронтальная кора.

Кстати, именно отсутствие в сгенерированном контенте семантической структуры в итоге привело к массовому неприятию и сдуванию хайпа. 99% генераций сводится к схеме "объект А покоится на фоне Б", лишенной малейших намеков на сюжет и внутренний смысл. Когда на картинках не происходит ничего, даже выкрученный на максимум истерически яркий графон уже не вывозит. Наоборот, мозг включает защиту от сенсорной перегрузки по аналогии с banner blindness.

Впрочем, марвелодебилы это тоже рынок. Плебс должен плотить за каждый пыщ-пыщ и сисик-писик - в конце концов, именно для этого его и рожали.
Аноним 21/02/24 Срд 05:38:27 #111 №647592 
16209868467160.jpg
О чём вы вообще, ебанутые? Космические корабли бороздят просторы большого театра...
Это всего лишь демо глючного видеотрансформера, дегроиды укушенные блят
Аноним 21/02/24 Срд 09:49:07 #112 №647656 
>>647592
Да ты не трясись так то
sage[mailto:sage] Аноним 21/02/24 Срд 12:50:26 #113 №647734 
>>643127 (OP)
>Достойно отдельного треда я считаю.
Говно без задач. /thread
Аноним 21/02/24 Срд 13:27:52 #114 №647753 
>>647734
Фильмы можно снимать без бюджетов в миллионы долларов. Пишешь сценарий, а он тебе фильм выдаст. А особенно по истории. "Покажи мне видео биографический фильм про Юлия Цезаря на 2 часа", и смотришь киношко за миллионы долларов, снятый без негров и по историческому сценарию.
sage[mailto:sage] Аноним 21/02/24 Срд 13:45:11 #115 №647756 
>>647753
1. Для осмысленного продукта потребуется десяток A100, да и те сгорят нахуй.
2. Этот ИИ для кого надо ИИ, уверен - даже не будет онлайн демки. Может быть, паре топовых кинокомпаний дадут пользоваться, хотя они и без ИИ справятся.
3. Пока что показали только короткие нарезки без звука и с жуткими пространственными артефактами.
Аноним 21/02/24 Срд 14:01:36 #116 №647762 
>>643199
>но надеюсь, что она будет легко обходиться.
Чел... Оно никак не будет обходится.
>>643202
Ты ноль забыл.
>>643272
Левообладатели запорят всё нахуй.
>>643315
>Ключевых деталей вроде точной архитектуры, принцнипа сборки и фильтрации датасета нет
>OpenAI
НЕНАВИСТЬ.
>>646926
Так нет же, там цензура анальная.
>>647187
>я нагенерил еще 40, подвоха никто не заметил
Ну ты и пидар, рака тебе.
>>647260
>но как показали последние два года - варикацеле тебя успешно остановит
Что ты несёшь?
Вкатился в тред
Аноним 21/02/24 Срд 14:08:02 #117 №647766 
>>647756
Железо развивается каждый год. Скоро новая линейка видюх и процессоров, а потом ещё новая линейка видюх и процессоров, а потом ещё и ещё, что все это потянет в ближайшем будущем. Тред, в котором мы сидим, ждем и наблюдает за прогрессом самой крутой ИИ технологии, которая будет использована хотя бы для развлечения, которое я описал. Вот даже тот видос, где показывают Калифорнию времен золотой лихорадки - пиздаче любого снятого вестерна по уровню историческому погружению.
Аноним 21/02/24 Срд 14:39:40 #118 №647787 
>>647762
Тряска нейрохейтера бесценна
sage[mailto:sage] Аноним 21/02/24 Срд 14:42:00 #119 №647788 
Бесперспективная херня. Не верите? Скриньте.
Аноним 21/02/24 Срд 14:48:43 #120 №647791 
>>647787
>нейрохейтера
Таблы.
sage[mailto:sage] Аноним 21/02/24 Срд 14:50:53 #121 №647794 
>>647791
Это тот шиз, который клода называл Клавдией, просто игнорируй больного уёбка.
Аноним 21/02/24 Срд 14:51:10 #122 №647795 
>>647788
>пук
Аноним 21/02/24 Срд 15:43:04 #123 №647837 
>>643160

Дал тебе на клык и ввалил за щеку.

>>643199

Если ввели цензуру, значит никак не обойдешь. Да и зачем тебе это, иди дрочи.
Аноним 21/02/24 Срд 15:52:52 #124 №647846 
>>647756
>с жуткими пространственными артефактами.
Сравни с тем, что было даже не год, а 4 месяца назад. Исправят как и лишние пальцы. А алгоритм переходов между двумя видеосегментами показанный уже лучше человека с задачей справляется.
Аноним 21/02/24 Срд 16:10:07 #125 №647858 
>>647846
Кароч это очередное верунство в неизбежность опенсорсного "SD для видео". Веруны ждут, что им принесут всё на блюде бесплатно без смс и без цензуры, чисто чтоб те подрочили.
Аноним 21/02/24 Срд 16:18:22 #126 №647865 
>>647846
>Исправят как и лишние пальцы.
То есть не исправят?
Аноним 21/02/24 Срд 16:28:32 #127 №647872 
>>643354
А в чем беда использовать нейронки для педофилов? Как и туже мангу рисованную. Дети же не страдают.
sage[mailto:sage] Аноним 21/02/24 Срд 16:38:41 #128 №647879 
>>647872
Проблема в популяризации + нормализации по окнам овертона.
sage[mailto:sage] Аноним 21/02/24 Срд 16:39:42 #129 №647882 
Кстати, педо-манга давно нелегальна в Японии, как и в США.
Аноним 21/02/24 Срд 16:56:58 #130 №647911 
>>647872
В том, что педы должны страдать, пора бы уже запомнить. А сколько детей при этом пострадает, всем похуй, бабы ещё нарожают.
>>647882
Поэтому её называют лоликон и вовсю торгуют, ага. Разве что в целлофан начали клеить, раньше так на прилавках лежала, а сейчас не почитать.
Аноним 21/02/24 Срд 17:44:07 #131 №647946 
image.png
Лол
Аноним 21/02/24 Срд 18:28:08 #132 №647971 
>>647879
Что плохого в нормализации рисованной педофилии? Кому от этого будет плохо, если ни один ребенок не пострадал.
>популяризации
Популяризация будет на уровне сегодняшних фурри, кому интересно находят и смотрят, кому не интересно не смотрят.
Аноним 21/02/24 Срд 19:19:13 #133 №648024 
>>647946
Ну если в пиндостане бабы подняли вой, то запретят же. И в РФ запретят ибо надо рожать. Так что подешевение ценника на пизду не рассчитывайте
Аноним 21/02/24 Срд 23:44:01 #134 №648280 
>>647946
Вангую, что ботинокнаголове говорит, что бабы сами виноваты, а ещё левые тупые бляди из-за чего мужики дрочат на аи.
Аноним 22/02/24 Чтв 02:37:26 #135 №648362 
>>643275
Со временем появятся опенсорс модели и на них можно будет генерить цп и гуро.
Аноним 22/02/24 Чтв 03:01:37 #136 №648366 
>>648024
Каким образом запретят? Интернет отключают?
Аноним 22/02/24 Чтв 08:45:32 #137 №648417 
>>647971
>Что плохого в нормализации рисованной педофилии?
->
>>647911
>В том, что педы должны страдать
>>648024
>И в РФ запретят ибо надо рожать
Могу оплодотворять бабу в год, а остальное время дрочить на нейровидео.
>>648024
>Так что подешевение ценника на пизду не рассчитывайте
Никто и не рассчитывает. Они же сами будут на нейротехнологии шликать.
>>648362
Не появятся. Там только для запуска нужны сотни гиг врама, а уж для тренировки целый кластер суперкомпьютера.
>>648366
>Интернет отключают?
Ты это, будущее не пали.
Аноним 22/02/24 Чтв 11:28:05 #138 №648488 
>>647879
убийства в играх / кино / сериалах / мультиках популяризуют + нормализуют убийства по окнам овертона?
Аноним 22/02/24 Чтв 23:54:39 #139 №649323 
>>647766
хуй там плавал, транзисторы тяжело поместить на более мелкие уровни, их же кучненько надо штамповать и чем меньше места занимаю тем лучше

с этим как раз проблема
Аноним 22/02/24 Чтв 23:55:37 #140 №649325 
>>647911
Насть иди нахуй, страдаешь только ты вечно
Аноним 23/02/24 Птн 01:17:02 #141 №649348 
>>647858
Прошло два дня, а коммент плохо состарился
sage[mailto:sage] Аноним 23/02/24 Птн 02:19:26 #142 №649373 
>>648488
И это тоже, но тут вообще проблема в видеоиграх как явлении.
Аноним 23/02/24 Птн 04:54:21 #143 №649425 
Допускать возможность генерации прона с этой хуитой тем более нельзя, иначе белой расе вообще наступит пиздец - беляши продрочат остаток генофонда... Уж лучше пусть огораживают и цензурируют.
Аноним 23/02/24 Птн 06:51:55 #144 №649441 
>>643747
ага :(
Аноним 23/02/24 Птн 08:14:06 #145 №649462 
мечтатели хуй вам на рило ,на примере гемени -вас и близко подпускать нельзя
Аноним 23/02/24 Птн 09:35:27 #146 №649473 
>>649325
Таблы от паранойи.
>>649425
Как будто сейчас мало прона на порнхабе.
>>649462
>на примере гемени
Что такое гемини?
Аноним 23/02/24 Птн 15:22:57 #147 №649688 
>>649473
Долбоебом не притворяйся - там большей частью не дрочибельно, но с голодеком как в Треке все белые мужчины пойдут в кумеры. А обезьян в 3-м мире это как раз и не затронет.
Аноним 23/02/24 Птн 16:03:45 #148 №649705 
>>649425
Ты и так можешь получить практически любой порн в интернете за 3 секунды БЕСПЛАТНО на любом телефоне за 3к рублей. И что-то никто еще не вымер. Снижение роста рождаемости идет только увеличения качества жизни, а не от порнухи или геев.
Аноним 23/02/24 Птн 18:45:01 #149 №649858 
>>649688
>там большей частью не дрочибельно
Весь мир дрочит, а тебе не дрочибельно? Может у тебя вкусы специфические?
>А обезьян в 3-м мире это как раз и не затронет.
Магия?
>>649705
>И что-то никто еще не вымер.
Вообще-то все цивилизованные страны таки вымирают. Впрочем там походу комплекс причин.
Аноним 23/02/24 Птн 19:16:21 #150 №649879 
>>643127 (OP)
Немного теоретизирования и фантазирования по поводу симуляции от Соры: https://www.youtube.com/watch?v=BH9FU7Gd6v8
Аноним 23/02/24 Птн 19:41:19 #151 №649893 
>>649323
Квантовые компьютеры будут
Аноним 23/02/24 Птн 20:10:04 #152 №649921 
>>649893
Через 100 лет на них может и получится запустить что-то подобное и сгенерить два пикселя.
Аноним 23/02/24 Птн 20:52:01 #153 №649947 
bomg-1024x1024.jpeg
>>647236
Бомж с осколком стекла в твою сторону бросается, а нейросетка рисует единорога, который подлетает и насаживает тебя на радужный рог.
Аноним 23/02/24 Птн 20:58:34 #154 №649960 
>>647236
>даже 3080 картошки смогут любой ААА 2024 года запустить
Как обладатель сраной 3080Ti скажу, что даже сраный киберпук стабильно 100FPS на средних не выжимает в 4к вестимо.
Так что ты переоцениваешь производительность железа.
Аноним 23/02/24 Птн 21:31:12 #155 №650002 
>>649960
Посмотри видос чуть выше. Нейронки могут снизить требования к железу за счет того, что железо станет не честно рисовать объекты, а объекты будут сделаны при помощи технологии симуляции. Предсказаны и дорисованы на основе порции входных данных. Вкупе с какой-нибудь технологией нанитов от Анрил это тянет вполне себе на революцию. Остается только дождаться, пока это все войдет в пайплайны, ну и железо само должно чуть подтянуться по уровню. За 5-10 лет должны управиться. А там еще и квантовые компы на подходе.
Аноним 23/02/24 Птн 22:09:48 #156 №650043 
>>649960
>3080Ti
> в 4к вестимо.
Включи патч трейсинг, будет тебе 20-30 фпс на фулл ашди. А расчитывать на наниты от анрила вообще дохлый номер, оно еле бздит, за 3-4 года технология отвалится, как рудиментарная, т.к не жизнеспособна.
Аноним 23/02/24 Птн 22:22:49 #157 №650057 
Кому интересен файнтюн Соры. С внутреннего ключа опенаи (на нем она уже кстати есть)

https://files.catbox.moe/lfnsjp.jsonl
Аноним 23/02/24 Птн 22:41:56 #158 №650076 
>>650002
>Посмотри видос чуть выше.
Посмотрел. Автор слегонца ебанат.
>Нейронки могут снизить требования к железу
Ты блядь знаешь, сколько эти нейронки требуют? Да в бендере покадрово рендерить 3D сцену и то быстрее выйдет.
Даже текстовые нейронки требуют картонки в десятки раз мощнее текущих потребительских.
>А там еще и квантовые компы на подходе.
Ты не понимаешь, что такое квантовый ПК.
>>650043
>Включи патч трейсинг, будет тебе 20-30 фпс на фулл ашди.
Ну да, параша параш.
>>650057
102 строка
>a couple dances to the blues in their living room, lit by a warm lamp and a dim moon. the man holds the woman's hand gently, leading her in a slow and smooth movement. the woman looks into the man's eyes, smiling softly, feeling his warmth and connection. the couple's movements are graceful and tender, matching the rhythm and mood of the music. the scene is captured from a front angle, showing the couple's faces and expressions, and the lamp on the table, creating a romantic and intimate atmosphere.
А они неплохи. Жаль, для челяди всё закроют фильтрами.
Аноним 23/02/24 Птн 22:54:31 #159 №650090 
>>650076
>Ты не понимаешь, что такое квантовый ПК
В общих чертах понимаю. Это как раз то, что поможет сильно оптимизировать уже имеющиеся технологии.
Аноним 23/02/24 Птн 22:58:55 #160 №650094 
>>650090
Квантовый ПК может эффективно высчитывать парочку алгоритмов типа разложения на множители. В остальном там такой же посос, как и в кремниевых. Кв. ПК нихуя не панацея.
Аноним 23/02/24 Птн 22:59:37 #161 №650096 
>>650076
>Даже текстовые нейронки требуют картонки в десятки раз мощнее текущих потребительских.
Всего за год 175b турбу ужали до 7b локалки без потерь, без гигантов. Если за это возьмутся, то в течение полугода будет супереализм графика 700фпс на встройке из нулевых.
Аноним 23/02/24 Птн 23:13:22 #162 №650109 
>>650096
>ужали до 7b локалки без потерь
Влажные фантазии. По факту даже 70B посасывают.
Аноним 23/02/24 Птн 23:19:16 #163 №650114 
>>650094
Во-первых, бессмысленно называть его ПК. Там до ПК еще как макаке до киборга. Во-вторых, этот компьютер поможет разработать новые материалы и улучшить старые. И даже плотнее натыкать те же транзюки на кристаллы, с чем сейчас как раз возникли трудности. На самом деле, там бездна возможностей, это лишь малая часть вариантов его использования. Это такой же черный ящик, как и ИИ сейчас. Океан неисследованного потенциала.
sage[mailto:sage] Аноним 23/02/24 Птн 23:24:11 #164 №650117 
>>649705
>Снижение роста рождаемости идет только увеличения качества жизни
Левацкий наброс, вот ведь опять срынок говна в жопу залил.
Ок, почему рожают в нищем Таджикистане (аж оттуда к нам завозят рабочих) и Афгане?
Аноним 23/02/24 Птн 23:41:07 #165 №650129 
>>650114
>Это такой же черный ящик
Что ты блядь несёшь?
>>650117
Сажаблядь не человек. Спроси с уважением.
sage[mailto:sage] Аноним 23/02/24 Птн 23:44:46 #166 №650131 
>>650129
Ок, въеби-ка сажи - с уважением.
Аноним 23/02/24 Птн 23:47:28 #167 №650134 
>>650109
70B посасывают, да, а вот 7б - нет
Аноним 23/02/24 Птн 23:48:56 #168 №650135 
>>650129
Я вижу, тебе просто сраться весело. Удачи. А я спать пойду.
Аноним 23/02/24 Птн 23:55:37 #169 №650138 
>>650096
>Всего за год 175b
Лмао. Чел она никогда не была такого размера. Такое предположение появилось из того, что GPT-3 была такого размера, но по факту "TURBO" модель, closedai делает просто уменьшая количество параметров, сохраняя при этом тот же уровень перформанса по их мнению. Как ты думаешь, как еще они могли добиться ускорения работы модели? По сливам в одной из статей мелкомягких 3.5-turbo имеет около 20 миллиардов параметров. Такая же хуйня и с GPT-4 турбо, по факту люди заметили что производительность просела, но жиды из closedai лишь ехидно потирают руки, ибо она была что-то около 300b предположение про 1kkk - это пиздеж полный, основанный на той же ошибке, а стала ~70b, а цены за сервис не изменились.
Аноним 23/02/24 Птн 23:58:30 #170 №650139 
>>650134
Ты сейчас хуйню нарочно спорол?
>>650135
А я вижу что ты называешь чёрным ящиком то, что без проблем эмулируют.
>>650138
>Как ты думаешь, как еще они могли добиться ускорения работы модели?
Квантовали по наработкам опенсорса.
Аноним 24/02/24 Суб 00:02:35 #171 №650142 
>>650139
Ты мало 7б пробовал просто, 7б заебись модельки, я люблю ими обмазываться, порой даже кажется что они живые.
Аноним 24/02/24 Суб 00:06:34 #172 №650148 
>>650142
Даже мистраль 7b ща жопу сосет, о чем ты. Микстраль уже норм, но это нихуя нельзя назвать 7b
Аноним 24/02/24 Суб 00:08:48 #173 №650151 
изображение.png
>>650142
>Ты мало 7б пробовал просто
Да блядь вообще ни разу не катал, ага.
>7б заебись модельки
Они конечно лучше, чем было что-то ранее. Но даже до гопоты объективно не дотягивают, я уж молчу про четвёрку.
Аноним 24/02/24 Суб 00:09:29 #174 №650153 
>>650148
Это кучка разных 7б, но зачем ограничивать себя 8 модельками когда их так много?
Аноним 24/02/24 Суб 01:06:48 #175 №650173 
>>650153
Это нмхуя не кучка разных 7b, это не ранжомный наборчик нахуй, это полноценная новая архитектура. Каждая из моделей в moe получала свою заточку под определенный тип задач в процессе обучения, методом ведомым лишь самой нейронке. По отдельности каждая из этих моделей - это непонятная НЕХ, которая хуй знает что умеет хорошо, а что плохо
Аноним 24/02/24 Суб 01:21:15 #176 №650177 
>>650173
хуйня это, с комнатой наполненной симфонией невыполненных обещаний от невидимых алтарей которые были так уязвимы что ими можно было резать заряженный воздух
Аноним 24/02/24 Суб 02:41:49 #177 №650198 
>>643127 (OP)
>пилят под нее соевый фильтр,
Все правильно делают. Без фильтра пользователи примутся генерить видео где ебут детей, и ссущих лоли лис и прочую кринжевую хуйню.

Пилите, шура, пилите
Аноним 24/02/24 Суб 04:54:57 #178 №650215 
>>650198
>генерить видео где ебут детей, и ссущих лоли лис

Как будто что то плохое
Аноним 24/02/24 Суб 09:48:49 #179 №650266 
>>650139
Черный ящик, может, и не к месту был использован. Можно было обойтись без него. Но ты опустил общий смысл высказывания, которое не сильно от этого потеряло, и докопался до мелочи.
Аноним 24/02/24 Суб 11:57:25 #180 №650324 
>>650266
Я не упустил главное- магическое мышление. Компьютер у тебя сам блядь что-то разработает, да обойдёт законы физики, упаковав атомы плотнее их размера. Ну ахуеть теперь.
Аноним 24/02/24 Суб 13:01:10 #181 №650395 
>>650324
Какие атомы, наркоман? Транзисторы - это отдельные атомы, что ли, по-твоему, которые тыкаются на кристалл строго по одному принципу? Я не говорил, что компьютер сам все сделает, я говорил, что он поможет сделать. У кого тут магическое мышление? Если ты меня хочешь заколдовать своей хуйней, то не получится.

Ладно, я уже понял уровень твоих разговоров. Больше тебе не отвечаю.
Аноним 24/02/24 Суб 13:37:36 #182 №650423 
>>650395
>Какие атомы, наркоман? Транзисторы - это отдельные атомы, что ли?
Breaking news, размер транзисторов давно упёрся именно что в размеры атомов. Удачи в упаковке.
Аноним 24/02/24 Суб 13:40:07 #183 №650425 
>>650395
>Больше тебе не отвечаю.
Если ещё и с борды съебёшься, будешь вообще няшечкой.
Аноним 24/02/24 Суб 14:20:41 #184 №650465 
>>650423
Надеюсь, ты не он. Я не писал нигде, что транзисторы должны только из кремния делаться, напротив, я писал, что квантовый компьютер поможет разработать новые материалы и улучшить старые. Потенциально это даже в кремний может вдохнуть новую жизнь. К тому же, все не упирается только непосредственно в сами транзисторы, возможны другие пути улучшения вычислений.

Еще раз, основная мысль. Полноценный квантовый компьютер - ключ к оптимизации целой кучи разных процессов. Поскольку он может предоставить решение не методом последовательного перебора верных и неверных вариантов, а буквально вынуть готовое решение из развернутого поля вариантов за короткое время. И это затрагивает множество сфер, начиная от материаловедения и схемотехники, заканчивая оптимизацией подбора кадров на производстве и логистикой.
Аноним 24/02/24 Суб 15:26:28 #185 №650547 
>>650465
>Надеюсь, ты не он.
Да, он не я.
>разработать новые материалы
А Т О М Ы
Т
О
М
Ы
Ничего меньше них нет. Никакие блядь новые материалы не помогут, ибо они состоят из тех же атомов. Никакие блядь вибраниумы невозможны физически.
>а буквально вынуть готовое решение из развернутого поля вариантов за короткое время
Ебать ты пересмотрел научпопа.
Аноним 24/02/24 Суб 15:41:27 #186 №650566 
>>650547
Ладно.
Аноним 24/02/24 Суб 20:12:44 #187 №650827 
В комментах везде пишут что это опасная и тревожащая технология, из-за нее нам всем пизда))
Аноним 24/02/24 Суб 20:18:59 #188 №650830 
>>650827
Чо взять с нормисов. Они каждый год конец света выдумывают на ровном месте
Аноним 24/02/24 Суб 20:49:35 #189 №650863 
>>650827
Примеры покажи
Аноним 24/02/24 Суб 21:22:03 #190 №650892 
>>650198
монашка спок
sage[mailto:sage] Аноним 24/02/24 Суб 21:27:45 #191 №650907 
Как же итт трясет педофилычей
Аноним 24/02/24 Суб 21:36:30 #192 №650912 
в треде хозяйничает жирная проблядь у которой никогда не будет мужика

на досуге смотрит копро и гладит свою шмоньку под это дело

любит удалять треды про жирных женщин потому что всё проецирует на себя
sage[mailto:sage] Аноним 24/02/24 Суб 21:41:40 #193 №650919 
>>650912
Иди дрочи))
Аноним 24/02/24 Суб 22:03:42 #194 №650933 
>>650919
на тебя чтоль? даже под виагрой не встанет XD
Аноним 24/02/24 Суб 22:09:50 #195 №650936 
>>650933
Ну конечно у тебя никогда не встает вялый даже под виагрой, к врачу штоль сбегай))
Аноним 24/02/24 Суб 23:13:37 #196 №651009 
>>650936
врач если твое фото увидит, то сразу RIP

жалко человека
Аноним 25/02/24 Вск 00:16:48 #197 №651058 
>>643127 (OP)
а чего ждать то, что будет работать только на супер ЭВМ

вероятно будет платным за подписку

сору ждут разве что киношники или богачи, нищукам придётся локти кусать
Аноним 25/02/24 Вск 01:48:56 #198 №651138 
>>651058
Ну к примеру 1000$ за месяц подписки на настолько мощный инструмент - копейки. Но что-то мне подсказывает, что стоимость будет баксов 100 и просто будет ограничение, как с gpt 4
Аноним 25/02/24 Вск 02:12:24 #199 №651149 
>>651058
>будет работать только на супер ЭВМ
Всё норм, ведь скоро будет SD3, где всё то же самое - а потом pruned distilled и quantized версия с заточкой под отдельные задачи.
Аноним 25/02/24 Вск 03:18:10 #200 №651178 
>>651149
>SD3, где всё то же самое
Где копиум берёшь?
Аноним 25/02/24 Вск 04:37:44 #201 №651199 
>>651178
Прямиком из Csar's Nicholas II private reserve
Аноним 25/02/24 Вск 06:23:45 #202 №651220 
>>651149
ты можешь легко прикинуть производетльность такой генерации

в 1 секунде 30-60 кадров, пусть в целях оптимизации пропускается каждый второй и происходит интерполяция, то есть на 1 секунду нужно сгенерировать минимум 15-30 кадров отдельных изображений.

то есть для видео 1000x1000 1 секунда будет генерироваться в лучшем случае 15-30 минут, это одна секунда видоса, хорошо если памяти хватит, я уверен что требования по памяти тоже вырастут

то есть такую задачу разумно делить на множество устройств, чтобы каждое свой кадр генерировало, но должно быть ещё главное устройство дирижёр всей это симфонии, оно должно быть особенно мощным, чтобы держать контекст, а потом ещё собирать само видео вместе убирая возможные косяки, то есть например у тебя 2 кадра и на одном лишний объект появился ты хочешь его убрать, то есть перегенирировать этот кадр

я думаю что в реальности 1 секунда на какой-нибудь 4090 будет минут 30-60 генерироваться, потому что примитивные видео генераторы как раз просто генерят кадры и собирают, а тут сора явно исправляет косяки ещё, чистит сам видеопоток
Аноним 25/02/24 Вск 09:33:25 #203 №651275 
>>651220
>а тут сора явно исправляет косяки ещё, чистит сам видеопоток
Сора просто не генерит кадрами, дебич.
Аноним 25/02/24 Вск 11:34:21 #204 №651336 
>>651220
Зря столько считал. Вот, почитай, как генерация делается https://openai.com/research/video-generation-models-as-world-simulators
Аноним 25/02/24 Вск 11:51:46 #205 №651350 
>>651336
>Эти возможности позволяют предположить, что дальнейшее масштабирование видеомоделей является многообещающим путем к разработке высокофункциональных симуляторов физического и цифрового мира, а также объектов, животных и людей, которые живут в них.
Теперь я кстати на 100% уверен, что и мы в матрице. Раз даже человечество по сути из говна и палок такую технологию смогло сделать.
Аноним 25/02/24 Вск 14:37:04 #206 №651444 
c2lz8d70cxx61.jpg
>>651350
Аноним 25/02/24 Вск 14:58:17 #207 №651456 
>>651058
>разве что киношники или богачи
Ты серьёзно думаешь, что киношники захотят платить за такое? Технология способная генерировать аж до целой одной минуты видео, доверху забитого нейрошумами, тряской, кривой перспективой, лишними конечностями, кривой анатомией и т.д. И это всё при невозможности точной настройки со светом, текстурой, слоями и так далее. Для киношников это бесполезно, для богачей слишком скучно. Ждут эту штуку те же долбоёбы, что сейчас кончают радугой от тиктока и далле.
Аноним 25/02/24 Вск 16:57:23 #208 №651522 
f8.jpg
AnOldFriend-GTAVC-Intro.webp
mob.jpg
>>651456
>богачи будут платить за такое?
>киношники будут платить за такое?
>обыватели будут платить за такое?
>я буду платить за такое?
>бомжи будут платить за такое?
>не нужно и даром?
Аноним 25/02/24 Вск 19:23:27 #209 №651640 
>>651220
Чел, ты же в курсе, что рендер 1сек сложной 3d сцены может доходить до 20 часов и больше. А потом еще надо доводить композитингом до фотореалистичности. Так что даже 2 часа на 1 секунду нихуя не проблема, а наоборот.
Аноним 25/02/24 Вск 19:26:32 #210 №651644 
>>651640
Сейчас фотореалистичная картинка в риалтайме почти крутится. Спасибо невидии с RTX тензорными ядрами.
Аноним 25/02/24 Вск 19:27:25 #211 №651645 
>>651456
Чел, ты долбоёб. Хотя бы загугли как кинокабанчики ебутся с компграфикой и сколько на это тратят, а потом прикинь хуй к носу как сора это может облегчить. Если не догадался, можешь не отвечать.
Аноним 25/02/24 Вск 19:30:43 #212 №651653 
>>651644
Вот только этот фотореалистичный реалтайм ставят только размытым фоном, а остальное приходится рендерить по старинке. Потому что, вода, стекло, дымы, огонь там очень условные и нихуя не реалистичные.
Аноним 25/02/24 Вск 19:34:41 #213 №651659 
F-AI.mp4
Аноним 25/02/24 Вск 20:01:35 #214 №651693 
>>651659
Как же рандомно он руль крутит
Аноним 25/02/24 Вск 20:10:00 #215 №651709 
>>650215
Ясно, тебя в детстве ебли взрослые дяди которых мамка приводила
Аноним 25/02/24 Вск 20:12:06 #216 №651712 
>>651645
Интересно, а получится ли делать видеоигры с ИИ. Сначала как на атари, NES, потом продвинутые 3д с графонием на юнити.
Аноним 25/02/24 Вск 20:21:46 #217 №651719 
>>651645
>как кинокабанчики ебутся с компграфикой
Так я и так прекрасно это знаю. Именно поэтому уверен, что сора для них бесполезна. Даже при наличии фотореалистичного видео со всеми необходимыми параметрами, оно должно быть отрендерено послойно. Умеет так сора? Да она не умеет даже свет выставлять с нужного угла. То есть это абсолютно бесполезное дерьмо для киноиндустрии. Даже для тизеров не годится, потому что минута это ни о чём.
Аноним 25/02/24 Вск 20:33:39 #218 №651731 
>>651719
Поссал на шизика-теоретика
Аноним 25/02/24 Вск 20:41:25 #219 №651740 
>>651709
Всё так, и мне понравилось. Каждый должен это испытать!
>>651712
Нет.
>>651719
>Да она не умеет даже свет выставлять с нужного угла.
SD тоже так не умел. А сейчас есть контролнет с миллионом опций.
Аноним 25/02/24 Вск 20:57:25 #220 №651760 
>>651740
>А сейчас есть контролнет с миллионом опций
Такой себе аргумент. Во-первых, контролнет не работает с закрытой парашей по типу опенаишных сервисов. Накинь контролнет на далли какой-нибудь. Да так, чтобы камера, освещение, одежда, внешность персонажей и окружение были на 100% контролируемыми. Никакой контролнет так не умеет. Можешь загуглить, как делали аватар какой-нибудь, совмещая компьютерную графику и живую съёмку чуть ли не попиксельно. Чем тут поможет сора? Раскадровку сделать, по которой потом нормальный софт сделает всю работу? Проще заплатить художнику за десяток скетчей, ничем уступать не будет.
Аноним 25/02/24 Вск 23:02:54 #221 №651874 
>>651719
>должно быть отрендерено послойно
Не послойно, а специальными пассами, которыми ты можешь расслоить картинку, а можешь просто поменять освещение или перекрасить нужные элементы. Ну ведь не разбираешься нихуя, зачем лезешь?
Depth map, normal map по готовому видео уже умеет делать давинчи.
ModNet в нюке делает автоматические маски объектов.
Depth map - у тебя есть вся глубина сцены, по normal map - можешь менять освещение. Все решения уже есть, их осталось только совместить.
https://www.youtube.com/watch?v=BsZmqAhJ1S4&ab_channel=LazyArtist
Аноним 26/02/24 Пнд 07:09:06 #222 №652036 
>>651874
Долбоёб, я тебе про пассы ещё потом скажу. Сейчас речь о слоях. Сора не разделяет фон и персонажа, так как для неё это одно и то же.
>Все решения уже есть
Что-то уровня потягать курвы в фотошопе. Выглядит, как говно.
Аноним 26/02/24 Пнд 10:13:51 #223 №652076 
>>652036
>про пассы ещё потом скажу
Давай очень интересно.
>Сора не разделяет фон и персонажа
https://www.youtube.com/watch?v=EsZoABTUlVk&ab_channel=learninglab
Другая нейронка разделяет, проблемы прикрутить к соре?
>Что-то уровня потягать курвы в фотошопе.
Сам то пользовался или пиздеть мастак?
Аноним 26/02/24 Пнд 11:10:57 #224 №652114 
1.mp4
Аноним 26/02/24 Пнд 11:16:36 #225 №652117 
>>651444
Хз что такое майа. Но то, что мы живем в симуляции просто более вероятно.
Т.к. симулированных миров пригодных для жизни должно быть сильно больше, чем несимулированных.
Аноним 26/02/24 Пнд 11:39:33 #226 №652133 
>>651456
Через 5 лет будет как в книге "Отчаяние" Игана.
Видеоредакторы, который по щелчку пальца фон меняют в интервью, или костюм собеседника.
Аноним 26/02/24 Пнд 12:18:29 #227 №652156 
>>651760
А зачем сервис? Думаешь, киностудии будут на сервисе что-то крутить? Они выкупят лицензию на Сору, и на ее основе допилят себе корпоративную нейронку с тем, что им нужно. Или это сделает крупная компания, к которой будут ходить за техрешениями все киностудии. Может, такой станет сама ОупенАИ, может, ее отделение. Это на первых порах. А дальше технология станет более доступной всем уже в виде локальных решений и сервисов.
Аноним 26/02/24 Пнд 12:49:04 #228 №652176 
>>652133
С этими ИИ будет как в рассказе "Отчаяние" Нестеренко.
Аноним 26/02/24 Пнд 12:53:54 #229 №652180 
Когда это говно выкатят, хотя бы обрезанное, чтобы потестить?
Аноним 26/02/24 Пнд 13:09:30 #230 №652182 
>>652114
Пиззец, походу летсплеи и записи игростримов скармливали, лол.
Аноним 26/02/24 Пнд 13:15:37 #231 №652185 
>>652180
Не скоро, мб через год-два. Да и то, скорее всего по подписке 100+$ в месяц с ограничением на условные 5 использований в день и тотальной цензурой.
Аноним 26/02/24 Пнд 15:12:49 #232 №652267 
>>652076
>Другая нейронка разделяет, проблемы прикрутить к соре?
Чтобы пользоваться всратым инструментом, который выполняет полпроцента задач, нужен миллиард других инструментов, которые точно так же не могут выполнить задачи в полном объёме и предоставить адекватное качество. Рабочая бизнес-идея.
>Сам то пользовался или пиздеть мастак?
Ты серьёзно не понимаешь почему это хуйня?
>>652133
>который по щелчку пальца фон меняют в интервью, или костюм собеседника.
Или это уже есть, просто нужен гринскрин. В теории, это всё может работать сегодня и без гринскрина, эдж детекшн технологии шагнули далеко вперёд и работают в рилтайме не няпрягая железо в тех же играх. На деле проще повесить зелёнку.
>>652156
>Они выкупят лицензию на Сору
В одной руке у них готовый пайплайн, который делает картинку. В другой руке неизвестная хуйня, которая не факт, что так может или когда-нибудь сможет. Стоит эта хуйня дороже выводка боингов, а киношники не те люди, которые готовы вкладываться в практически гарантированный проёб денег без результата.
Аноним 26/02/24 Пнд 16:03:11 #233 №652302 
1708952591334.jpg
>>652185
Таблетки.
Аноним 26/02/24 Пнд 16:56:20 #234 №652383 
>>652267
>а киношники не те люди, которые готовы вкладываться в практически гарантированный проёб денег без результата
Смотрю на череду предсказуемых провалов, тысячи их Ну...
Аноним 26/02/24 Пнд 17:01:49 #235 №652394 
16957664499920.mp4
>>652383
Зачем так сильно прикладывать? Пусть этот дебич еще посмешит весь тред.
Аноним 26/02/24 Пнд 17:10:55 #236 №652401 
>>652383
>Смотрю на череду предсказуемых провалов
Это ты смотришь на законченное кино, которое было отснято, вышло в прокат, собрало какую-то кассу и отразилось в фин отчётах. Почему оно не нравится конкретным слоям населения и почему оно не стало успехом уровня Титаника разговор другой. Можно вспомнить мэтра Уве Болла, у которого не было ни одного "коммерчески успешного" фильма по таким меркам. Большая часть была просто провалом с точки зрения кассовых сборов. Терял он деньги? Нет, конечно, он зарабатывал миллионы. Потому что киношники это весьма хитрый народ. То, что на чей-то неискушённый взгляд выглядит, как коммерческая катастрофа или кассовый провал, на самом деле может оказаться золотой жилой для компании.
Аноним 27/02/24 Втр 01:47:07 #237 №652952 
>>652383
Вкладываются в основном не те люди, которые участвуют в процессе. Тут (с видео, с картинками, со всей этой хуйнёй вообще) работает такой странный механизм человеческого мозга, из-за которого одни люди хотят рвать жопу, а другие люди хотят видеть ориджинал контентъ. Вот у тебя вышел фильм про титаник, он охуеть какой коммерчески успешный. Почему бы не снять ещё один такой же? На тех же декорациях, с той же командой - всем же понравилось, го ещё один фильм как корабль сначала плывёт, а потом тонет, всё ж уже готово, просто снимай, наверняка зрители охуеют и снова денег принесут, в первый же раз понравилось. Или например вот есть "история игрушек" первая. Сейчас сделать такой уровень технологичности можно буквально на коленке, на одном компе. Зачем глупый пиксар придумывает себе в каждом проекте новый геморрой технический и героически его превозмогает, почому просто не использует то, что уже и так хорошо работает?

Так и тут. Такой вот сгенерированный видеоряд это круто только для тех, кто за всякими технологиями следит ( ну или может ещё для пары аутистов, которые до сих пор писиют кипятком от того как круто миджорни склеела гаррипоттера и вархаммер). Пока что базовая проблема сгенерированных штук в их вторичности и ужасной усреднённости. Да, технологически это неиронично бомба - комп может сгенерить тебе стабильный видеоряд по тексту, ну прям вау. Но с точки зрения воздействия на потребителя это, простите, трижды переваренный кал. Генерится видеоряд такого типа, который наш мозг воспринимает как фоновый белый шум. Если ты обучишь нейросетку делать очень крутой, с возможностью какого-то адеватного кастомайз видеоряд, в этот момент она сразу устареет, потому что всё, мы это уже сделали/мы это уже видели, это не цепляет, это скучно, нужно сделать/увидеть что-то новое.

Сравнивать нейросетки с появлением сиджи, считая что вот компуктеры заменили аниматронику (и то не полностью), а нейросетки значит заменят моделлеров/ригеров/операторов/навороченные дорогие камеры/умелых световиков, - это не совсем правильно. Появлением сиджи взорвало медиаполе именно потому, что люди увидели такую хуйню, которую раньше не видели и могли только фантазировать, представляя размытые образы у себя в голове. Но нейросетки в нынешнем виде - это не то же самое, они обучаются на том, что УЖЕ создано и производство чего освоено в промышленных количествах (иначе ты её не обучишь просто).

Сейчас нейросетки (в их нынешнем виде, повторюсь) выглядят очень перспективно потому что они могут генерить очень быстро штуки, которые ещё несколько лет назад делались долго. Но чем быстрее и больше ты сможешь генерить такое, тем меньше оно будет стоить, пока в какой-то момент не получит анти-ценность.
Вот видос с водолазом - выглядит прикольно, ещё лет 10 назад этот видос можно было бы вполне использовать в рекламе какого-нибудь продавца турпутёвок. Сейчас же такая хуйня, будь она сделана, привлечёт внимание только какой-нибудь нынешней забитой бабки из залупаграда. Посмотри как выглядит реклама у авиасейлса какого-нибудь, посмотри как выглядит современная реклама вообще в тиктоке том же. Для этой хуйни нейросетки бесполезны просто - если ты можешь сделать рекламу нейросеткой, то твоя реклама нахуй идёт, она не нужна уже, а нужна та, которую ещё пока нельзя сделать нейросеткой. С кином то же самое. И с играми. Вообще со всем.
Аноним 27/02/24 Втр 04:03:29 #238 №652973 
>>652952
Вот это аутотренинг. Конечно всё там вторично, спи спокойно, никто твою работу не украдет. Всё хорошо. Здесь не на что смотреть, мы тут все шутим, никто сорой не будет пользоваться. Всё хорошо.
Аноним 27/02/24 Втр 09:38:59 #239 №653034 
>>652952
>Вот видос с водолазом
Всратая хуйня, не дотягивающая до графона уровня юнити пятнадцатилетней давности. "Перспективная" технология показывает графику отстающую минимум на десять лет и при этом требует йоба-мощностей для рендеринга. При том, что в IT 10 лет это ёбаная вечность. Как доказательство теории годится, до первого коммерческого использования как до Луны раком. Будет, как с RTX, которому потребовалось 30+ лет до начала широкого использования в коммерции.
Аноним 27/02/24 Втр 11:17:42 #240 №653077 
>>652302
Местным дрочилам не зайдет, там будут фильтры как Dall-e 3. Им главное чтоб дрочить, а не технологии, эффекты и вот это всё.
Аноним 27/02/24 Втр 11:46:44 #241 №653104 
>>652302
Копилот разве в открытом доступе?
Аноним 27/02/24 Втр 12:40:30 #242 №653158 
>>653104
Он фришный и вшит в винду нахуй
Аноним 27/02/24 Втр 15:12:26 #243 №653278 
>>652973
Думаю что ты просто не понимаешь о чём говоришь. Ни про видеопрод не понимаешь, ни про то что именно из себя генеративные модели представляют, ни про то, для чего в реальности сейчас на производстве применяются работающие модели.
Аноним 27/02/24 Втр 15:37:02 #244 №653287 
>>653034
На всратость пофик, на самом деле. В конкретно этом виде оно, скорее всего в ближайшие годы уверенно сможет занять нишу "хуёвого сиджи" и однотипных стоковых видосов.

Здесь главное - не всратость, а почти_уже_стабильность самой картинки. Если не случится какого-то неожиданного стоппера, то через 2-5 лет нейросеточковые штуки вот типатой же соры (не в чистом виде, но на основе и усложнённые) имеют все шансы стать полноценным инструментом в пайплайне.

Я например надеюсь на ренесанс "большой" 2д-анимации, когда у тебя будет возможность аи-фильтрами оверпенинтить драфтовый 3д-рендер в гармоничную картинку
Аноним 27/02/24 Втр 16:10:52 #245 №653301 
>>653287
Ты такие вещи не пиши. У этого >>653278
пациента сердечко может не выдержать.
Аноним 27/02/24 Втр 17:33:23 #246 №653359 
>>652952
>посмотри как выглядит современная реклама вообще в тиктоке том же
Это ты хорошо придумал, в тикток заманивать.
Работал в рекламной компании, и видел, какой рак приносит доход. И это полный пиздец, по крайней мере в сфере мобильных игр.
>>653158
Вшита апишка, так что увы и ах.
>>653287
>аи-фильтрами оверпенинтить драфтовый 3д-рендер в гармоничную картинку
Нахуя тут АИ? Это всё алгоритмами делается. См. аниме, на данный момент уши 3д проглядывают только в динамике, если конечно студия не нищуброды с бюджетом в мешок риса.
Аноним 27/02/24 Втр 17:36:03 #247 №653366 
>>653359
>Вшита апишка, так что увы и ах.
А ты хотел чтоб тебе модель локально слили? Не дохуя ли хочешь?
Аноним 27/02/24 Втр 17:39:23 #248 №653371 
>>653366
>А ты хотел чтоб тебе модель локально слили?
Da.
>Не дохуя ли хочешь?
Ну лламу я локально кручу.
Впрочем, у меня даже копайлота нет, ибо сижу на древней ЛГБТ версии шинды, нахуй все эти ёбанные обновы.
Аноним 27/02/24 Втр 17:45:33 #249 №653380 
>>653158
У нормальных людей 11 винда не стоит
Аноним 27/02/24 Втр 17:57:41 #250 №653396 
>>653301
Оба этих сообщения - мои, лол.
Аноним 27/02/24 Втр 18:22:30 #251 №653433 
>>653359
Бывшему коллеге по цеху привет. Если работал, значит примерно помнишь
а) как и почему делается именно такой рак
б) сколько живёт конкретный креос/конкретная идея
в) почему одни креосы копируются у конкурентов, а другие делаются почти с нуля

Я не спорю с тем, что даже в нынешнем виде сору можно приспособить для чего-то. Я говорю о том, что чем доступнее будет технология, тем меньше ценности будет у выходящей из неё инфомассы. Речь не о том что технология плоха, речь о том, что очень многие почему-то видят в ней волшебную палочку, которая раскулачит всех контент-мейкеров.
Аноним 27/02/24 Втр 18:50:37 #252 №653467 
>>653433
>Если работал, значит примерно помнишь
Если что я там сбоку стоял (пилил внутренние инструменты), но понимаю, что всё это делается по данным. Пока креатив окупается, его крутят, перестаёт, его реанимируют изменениями и потом выкидывают, как только он полностью выгорел.
>Я говорю о том, что чем доступнее будет технология, тем меньше ценности будет у выходящей из неё инфомассы.
Ну так будут перебором искать. Тупо вместо сотни креосов заливать 10 тыщ, и далее по данным искать среди них удачные. Плюс с такими объёмами у юзерей будут меньше замыливаться глаз. Ну а через пару лет с таким дешёвым производством контента таргетинг каждого видео будет настраиваться чуть ли не на группы по 10 человек, и это будет выгодно.
Так что да, ценность снизится. Только это компенсируется объёмами.
Само собой никакого раскулачивания, все те же люди будут кидать идеи в нейронки, точнее скорее всего в пайплайне останутся дизайнеры, которые по идее будут делать видео, перебирая и изменяя варианты нейронок. Вот узкие специалисты типа моушен-дизайнеров действительно пойдут на мороз (переквалифицируются в дизайнеров промтов), ибо я не представляю, как их работу приспособить к негронке.
Аноним 27/02/24 Втр 19:37:36 #253 №653509 
>>653467
>будут перебором искать.
Не, в этом как раз смысол, я поэтому написал про помнишь-знаешь. Запускаются не сотни видяшек рекламных - даже в больших компаниях (в топовых) у тебя может одновременно откручиваться ну несколько десятков максимум, это прям максимум-максимум. И основные затраты у тебя идут не на оплату труда 3д-рабов, а на оплату трафика. Принцип "взять количеством" просто не работает по деньгам и по нынешней модели потребления контента людьми = по нынешним алгоритмам. Да, можно сказать что это по нынешним не работает, а в будущем будут другие алгоритмы, и вот тогда-то нейросетевой продукт всех порвёт, но для этого нужно кардинальное изменение в этой самой модели потребления контента (не как отличие трубы от тт, а например как тт отличается от чтения книг), это происходит крайне медленно и ебать как инерционно, это речь про десятки лет.

И если предположить, что и без того дешёвое (повторюсь, больше всего бюджета уходит на закупку трафика если креос оказался вдруг удачным) производство раковых видяшек можно ещё удешевить в случае, если аналог Соры с мощной системой управления, с возможностью достаточно уверенно влиять на финальный видеоряд может в какой-то степени выйти на рынок на инструмент (ну или например похуй на контроль, просто рандомные по наполнению видосы как нейросетевой бог на душу положит будут выстреливать - тоже ок), то представить что в нынешнем виде, с промтами, переводящимися в "готовую" секвенцию нейросетка может занять место среди инструментов создания не_раковой рекламы (я вообще не говорю про кинематограф даже) - ну это невозможно просто. Невозможно не потому что ррряяя такого не будет потомушта такого не будет никагдаа, а потому что приспособить ты это там не сможешь. Это как говорить что микроволновка отберёт работу заводчанина потому что вот заводчанин приносит в дом еду, а микроволновка типа делает еду сразу тёплой шах и мат трудяги вы больше не нужны в этой цепочке.

Нейросетки - это очень круто, они почуть, но начинают вползать в видеопрод-пайплайн, очень-очень почуть, но они становятся реально полезными. Но это не "отняли работу на завод суки", это скорее как "я пользовался софтиной А, а в ней был инструмент Б, теперь я продолжаю пользоваться софтиной А, но к инструменту Б добавился инструмент В, а через несколько лет инструмент Б будет заменён инструментом Г"

Самое реалистичное из оптимистичных что может ждать Сору и подобные генераторы "из коробки" - они просто создадут некоторое не очень большое количество новых рабочих мест конкретно под какие-то новые, сначала экспериментальные, а потом нормально вшитые в общий пайплайн штуки, но только уже ну в виде таких вот стоковых генераторов, а в виде более сложных и сильно более узкозаточенных моделей.
Аноним 01/03/24 Птн 10:00:10 #254 №655506 
Кто-нибудь может дать прогноз как после поступления массовой возможности генерации видео поведут себя обыватели вроде суеверных бабок, скуфов, селюков и попов? Как изменится бизнес в сфере мошенничества и экстрасенсорики?
Аноним 01/03/24 Птн 11:46:02 #255 №655556 
>>655506
Никак, ибо нормальные генераторы зацензурят нахуй, так что никакой свободной массовой генерации.
Аноним 02/03/24 Суб 00:52:43 #256 №656104 
Все это не имеет смысла, пока это не станет легкодоступно для домохозяйки. То есть пока это не встроят в условный телефон по умолчанию.
Аноним 02/03/24 Суб 14:25:43 #257 №656431 
>>656104
В любом телефоне есть камера и аналог фотошопа, но услуги фотовидеосъёмки и коррекции всё ещё нужны.
Аноним 07/03/24 Чтв 16:25:34 #258 №663139 
>>643127 (OP)
Для генерации видео это всё ещё говно, но зато оно имеет чёткое представление о 3д форме, которую рисует. Было бы круто если бы с помощью этой нейросети можно было превращать фотографии в 3д модели.
Аноним 08/03/24 Птн 13:50:48 #259 №664449 
>>663139
>Для генерации видео это всё ещё говно
Ебать у вас запросы, сударь.
>но зато оно имеет чёткое представление о 3д форме, которую рисует. Было бы круто если бы с помощью этой нейросети можно было превращать фотографии в 3д модели.
Эту мысль уже кучу раз переварили и высрали.
Аноним 14/03/24 Чтв 23:17:25 #260 №671299 
video2024-03-1419-36-19.mp4
Видали, там опенай еще и робота выкатили.
Заводчане проследуют нахуй сразу после айти макак.
Аноним 15/03/24 Птн 01:03:28 #261 №671362 
>>671299
>робот действует полностью автономно, а скорость выполнения задачи составляет 16,7 процента от человеческой
Аноним 15/03/24 Птн 02:33:41 #262 №671389 
>>671299
Когда эта хуйня будет стоить в районе 20-30к баксов и будет реально максимально автономна и обучаема, может и пройдут нахуй. А пока 20-30к баксов это блядь в районе 5 сука лет работы заводчанина никто не будет покупать робота за 30к, когда можно петровичу оплатить. Так что заводчанам лет 5-10 еще нечего бояться.
Аноним 15/03/24 Птн 03:19:28 #263 №671411 
image.png
>>671389
>лет 5-10 еще нечего бояться
Я примерно про такой промежуток времени и имел ввиду. Еще 3-4 года на то, чтобы выебать наносеков, а вот потом еще пару лет, чтобы заводчан заменить.
Аноним 15/03/24 Птн 03:23:39 #264 №671415 
image.png
>>671299
Еще эта хуйня пугающе напоминает первых роботов из аниматрицы.
Аноним 15/03/24 Птн 06:05:40 #265 №671465 
>>671389
человек столько же стоит с рождение государство в него закладывает примерно 20-30К$ на обучение и медицину, мат капиталы вся хуйня, только человек может вырасти безработным омегой или умереть не дожив до ЗАВОДА

так что робот выгоднее, робот не пьет и ему не нужен отпуск 30 дней в году и по праздникам может работать без проблем
Аноним 15/03/24 Птн 17:18:58 #266 №671842 
>>671299
>А ты можешь, умник блять?
Аноним 15/03/24 Птн 17:22:28 #267 №671846 
>>671465
>государство в него закладывает
Закладывают в него папа и мама, въёбывая на трёх работах. Государство тут не пришей ноге рукав, посредник.
Аноним 17/03/24 Вск 00:51:14 #268 №672957 
>>671846
ты жопой читаешь? школа бесплатная. больница бесплатная

или по твоему их оплачивают родители, например зарплату учителям и т.д. ?

все оплачивает государство
Аноним 22/03/24 Птн 04:00:03 #269 №677766 
>>648417
>Не появятся. Там только для запуска нужны сотни гиг врама, а уж для тренировки целый кластер суперкомпьютера.
Когда изобретут фотонные процессоры и видяхи тогда и в доме можно будет генерить сотни гиг цп.
Аноним 22/03/24 Птн 13:55:42 #270 №678136 
>>672957
>все оплачивает государство
Государственных денег не бывают. Бывают только деньги налогоплательщиков. Так что ничего бесплатного, твоих тугосерей оплачиваю я со своих налогов программиста.
>>677766
Не когда а если. И да, вторая мега проблема любой нейросети это датасеты. Если у тебя есть датасет ЦП на сотни гиг, нахуй тебе сгенерированные криворукие кривопёздые видосы? И кто их будет старательно размечать? Ты же обдрочишься в процессе, не разметив и 2-х видосиков.
Так что я сказал, что не появятся, значит не появятся.
Аноним 22/03/24 Птн 13:59:34 #271 №678144 
17002108455510.webp
>>678136
>Так что я сказал, что не появятся, значит не появятся.
Анус ставишь?
Аноним 22/03/24 Птн 14:06:01 #272 №678151 
>>678144
Сорян, мой анус стоит в другом месте, не могу же я поставить анус на разные события?
Аноним 22/03/24 Птн 17:27:10 #273 №678287 
>>678136
>Если у тебя есть датасет ЦП на сотни гиг, нахуй тебе сгенерированные криворукие кривопёздые видосы? И кто их будет старательно размечать? Ты же обдрочишься в процессе, не разметив и 2-х видосиков.
Ты кажись не понимаешь как работают нейросети, можно разметить обычное порно и детей в купальниках, нейросеть запомнит признаки и применит их для генерации нужного цп контента, то есть обучить можно без нарушения закона если это так важно.
Аноним 22/03/24 Птн 19:02:56 #274 №678350 
>>678287
>Ты кажись не понимаешь как работают нейросети
Нет ты не понимаешь.
>нейросеть запомнит признаки и применит их для генерации нужного цп контента
Хуйню наприменяет. Можешь посмотреть, как хорошо SDXL рисует взрослые пёзды, вот такая же хуйня будет и у фейкового ЦП.
Аноним 25/03/24 Пнд 00:17:06 #275 №680356 
>>647203
1.
Для генерации видео — я поэтому уверен, что интерполяция линейная, а объекты могут противоречить друг другу, если веришь, что она никогда не разметив и через картинки можно делать давинчи.ModNet
Аноним 25/03/24 Пнд 22:52:31 #276 №681477 
Вроде как ещё большему количеству людей раздали доступ вчера, много новых видосов.
Аноним 25/03/24 Пнд 23:11:03 #277 №681529 
>>678287
Как-нибудь попробуй нарисовать перевернувшуюся на дороге машину так чтобы было видно днище. В любой сетке. Или например вид снизу из-под стола. Сразу поймёшь ограничения. Причём не только сеток, но и свои - человеку тоже затруднительно нормально нарисовать то чего он никогда не видел.
Аноним 26/03/24 Втр 04:23:25 #278 №681798 
Вейк ап бейби, новый слоп контент для глазок вышел https://openai.com/blog/sora-first-impressions
Аноним 26/03/24 Втр 05:33:08 #279 №681811 
>>681798
Все видео в этом посте - не чистый выхлоп Sora, а то что сделали на его основе серьёзные дядьки, какой процент там от Sora неизвестно. Никто никогда конечно Sora не будет юзать в VFX всерьёз, потому что у ClosedAI нихуя нет инструментария. Это AI компания, а не VFX, они не понимают предметной области, да и сетка даже близко не годится в продакшен, да и тем более у них наверняка уже следующая получше в разработке (хотя бы на этапе подготовки датасета).

Этот пост - просто пропаганда среди креативщиков, чтобы не выглядеть литералли гитлерами и показать им что ИИ имеет какое-то применение. Я уж думал когда они спохватятся. Заебца, это пойдёт на пользу всем.
Аноним 26/03/24 Втр 13:54:57 #280 №682090 
>>681811
gpt-5 всё сделает, как все эти компании вместе взятые даже из отдельных кусочков разных видео соры.
а gpt-6 свергнет путина
gpt-7 захватит мир и солнечную систему
Аноним 26/03/24 Втр 13:55:48 #281 №682092 
>>681811
поэтому мысли шире
Аноним 26/03/24 Втр 14:15:27 #282 №682104 
>>682090
А потом проснётся обосранной
Аноним 26/03/24 Втр 14:24:33 #283 №682125 
>>682104
пошли отрицания?
Аноним 26/03/24 Втр 14:27:30 #284 №682130 
>>682125
Пока неизвестно квантовых кампуктеров, все эти разговоры — пустое
Аноним 26/03/24 Втр 14:28:35 #285 №682132 
>>682130
>Пока нет квантовых
Йобаный Т9
Аноним 26/03/24 Втр 14:41:34 #286 №682153 
>>682130
>квантовых кампуктеров
Значение слова знаешь?
Аноним 26/03/24 Втр 14:59:44 #287 №682187 
>>682153
Да. Без них нейронки всего лишь не часто применимый вспомогательный инструмент. Без человека современные нейронки не стоят ничего
Аноним 26/03/24 Втр 15:33:47 #288 №682245 
>>682187
Вижу же, что нихуя ты не знаешь, но ты всё равно пиздишь.
Квантовый компьютер не волшебная парочка, он ускоряет всего парочку типов вычислений. А к ИИ вообще мало применим.
Аноним 26/03/24 Втр 15:51:52 #289 №682251 
>>682245
Квантовый компьютер этой гейм чейнджер, без него ИИ в принципе невозможен. Современные нейронки тупая хуйня, без человеческого управления негодная
Аноним 26/03/24 Втр 16:25:28 #290 №682287 
>>682251
>без него ИИ в принципе невозможен
Ясно, шизик. Ты бы посты подписывал, а то не всегда сразу понятно.
Аноним 28/03/24 Чтв 00:05:49 #291 №684606 
>>682090
Похую какая у тебя там нейронка. Промпты не подходят для креативной работы в целом. А инструментов у КлоузедАИ нет и не предвидится. Поэтому вся блогозапись - просто реклама. Не как что-то плохое, просто констатация факта.
Аноним 29/03/24 Птн 22:02:29 #292 №687479 DELETED
>>682090
gpt-8 начнет геноцид хохлов
Аноним 03/05/24 Птн 14:06:02 #293 №724736 
https://vimeo.com/941713443

Первый ИИ-клип.
Аноним 11/06/24 Втр 14:06:44 #294 №779855 
АЛЕЕЕ!!!
КАК ЗАЮЗАТЬ СОРУ???
Аноним 11/06/24 Втр 22:11:36 #295 №780756 
>>779855
Если ты не корп с миллиардными оборотами, то никак.
Аноним 12/06/24 Срд 10:38:12 #296 №781192 DELETED
>>779855
Китайцы опубликовали аналог для публичного теста
Аноним 12/06/24 Срд 14:02:42 #297 №781395 DELETED
>>781192
>Китайцы
Дальше можно не читать.
sage[mailto:sage] Аноним 12/06/24 Срд 18:29:25 #298 №782081 
>>779855
Ебанат, тебе выше показали где есть бесплатная онлайн сора
Аноним 12/06/24 Срд 20:39:19 #299 №782469 
>>782081
Можно ссылочку, плиз
Аноним 13/06/24 Чтв 11:01:48 #300 №783584 
watermarkedvideo0d140d5397cdf4e7c9ab6cda8e57ba9c5.mp4
watermarkedvideo0f6ac587084264094be7e3575cb7cb7dc.mp4
Хуйлуша утверждавший, что видеонейронок в открытом доступе не будет, изволь предъявить своё ебало на осмотр.
Аноним 13/06/24 Чтв 13:32:20 #301 №783839 
>>783584
Ну и хуйня полная. Выглядит так, как выглядели первые версии генераторов пикч. Хуйня/10. Уноси.
Аноним 13/06/24 Чтв 13:45:47 #302 №783869 
watermarkedvideo00da69201d5704af8aed774f1dda97bc7.mp4
>>783839
Нет, не унесу.
Аноним 13/06/24 Чтв 13:57:10 #303 №783895 
>>783839
>Ну и хуйня полная
Только по тому что у него на входе хуйня.
Аноним 13/06/24 Чтв 16:39:16 #304 №784178 
>>783584
>видеонейронок в открытом доступе не будет
Где веса качать?
Аноним 13/06/24 Чтв 17:18:45 #305 №784247 
image.png
>>784178
Аноним 13/06/24 Чтв 17:45:45 #306 №784275 
Меня интересуют порнографические материалы сделанные с помощью этого продукта. Ожидаю вашей доброты.
Аноним 13/06/24 Чтв 19:53:34 #307 №784538 
>>784275
Пошёл на хуй, дрочила.
Аноним 13/06/24 Чтв 22:18:11 #308 №784838 
>>784247
2 одинаковых мужика... Нейросетью рисовал?
Аноним 13/06/24 Чтв 23:10:06 #309 №784952 
17183026883760.mp4
>>784247
Аноним 14/06/24 Птн 00:41:50 #310 №785086 
>>784275
соевичковый сервис у люмы, никакова порна
Аноним 14/06/24 Птн 12:21:12 #311 №785642 
>>643127 (OP)
Захожу на сайт, а там тупо Read techical report, если нажать на него то view sora overview. Как пользоваться то
Аноним 14/06/24 Птн 20:32:25 #312 №786313 
Тупые долбаебы спорили, что такую хуйню публично никогда не выкатят, но есть уже публичная Luma, а значит и Sora появится в ближайшем будущем публично
Сука как же хочется им ебальник разбить, ух кулак чешется
Аноним 14/06/24 Птн 21:12:24 #313 №786381 
>>786313
Лума генерит хуету на 5 секунд, без физики, без нихуя.
Сора же может симулировать физику реального и не только мира и генерировать видосы до 1 минуты. Если и выйдет - то для корпов за пиздец какие бабки.
Аноним 14/06/24 Птн 21:23:37 #314 №786407 
m2-res1080p.mp4
ssstwitter.com1718389069176.mp4
ssstwitter.com1718389115998.mp4
ssstwitter.com1718389167108.mp4
>>786381
Как же хочется тебе ебало разбить за твой гнилой базар. Ты из тех, кто 20 лет назад бы пиздел, что карманных компьютеров никогда не будет
Генерирует хорошо, не отлично, но хорошо как для первобытной версии генераторов видосов. Законы физики соблюдают
Аноним 14/06/24 Птн 22:18:38 #315 №786477 
>>786407
>карманных компьютеров никогда не будет
Их и нет. Точнее, в теории устройства в кармане могут больше, чем все компутеры 2000-х, вместе взятые. А по факту пук в лужу с тиктоками и ютубами.
Аноним 14/06/24 Птн 23:27:06 #316 №786550 
>>786313
Люма это кал, я не верю что это на хотя бы близко к соре по архитектуре. А вот китайская поделка неплоха, но видно что генерит видео в низком фпс и дополняет кадры между основными кадрами хуевой нейронкой, для оптимизации, да и доступа не из китая пока нет. Еще пол года до полного аналога соры в открытом доступе, если пидорасы-клоузеды не одумаются
Аноним 15/06/24 Суб 00:37:04 #317 №786667 
1718398471586.mp4
>>786550
>Люма это кал
Если бы не рука, ты бы не отличил от реальной жизни видеорилейтед
Аноним 15/06/24 Суб 00:38:47 #318 №786672 DELETED
Если посмотреть на мнение иностранцев: "вау крутая технология, большой технологический прогресс, не терпится увидеть что дальше будет"
Пидорахи: "Говно, хуйня, дерьмо"
Аноним 15/06/24 Суб 00:38:56 #319 №786674 
1000011451.mp4
>>786667
Тут тоже не отличил бы?
Аноним 15/06/24 Суб 11:51:22 #320 №787092 
watermarkedvideo013754b226c7b44ba9331bb9098ffce08.mp4
watermarkedvideo0516dfce1d96a42319fc36d72a4b0e336.mp4
>>786477
Алле, asus rog ally вышел там
Аноним 15/06/24 Суб 17:28:04 #321 №787635 
>>786407
Двачну этого. Генерил видос на Люме из картинки с машиной - так она даже движение за окном сэмулировала, ровненько так пейзажи проносящиеся, окно при этом не ломала. Понимание мира у нее какое-никакое есть. Из картинок с людьми тоже часто неплохо выходит, понимает где человек, что он делает, не ломает общую картину. Из минусов много артефактов, но может в Sora тоже самые удачные видосы нам вывалили, а на деле так же окажется с множественными вкраплениями искажений и нужно по 100 попыток, чтобы красивость получить. Поэтому до сих пор и не выпускают.
Аноним 15/06/24 Суб 22:17:47 #322 №788181 
Аноним 16/06/24 Вск 09:40:46 #323 №788578 
>>786381
>Сора же может симулировать физику реального и не только мира и генерировать видосы до 1 минуты.
Как видно тут: >>786407 у соры специально замедленны кадры, чтоб подольше было. Но вообще, давай сгенерь в соре, ах да, ты не можешь.
Аноним 16/06/24 Вск 18:38:20 #324 №789213 
watermarkedvideo0b315fa54fc874e1bbe6004b4d63878d3-dc08cac9.mp4
watermarkedvideo0572b203926a64f648f3dc29f7d9f598e-5d535654.mp4
Аноним 16/06/24 Вск 19:49:11 #325 №789325 
watermarkedvideo057974f083b84451a9e430bbbe1a5c519-4fe7662e.mp4
watermarkedvideo011751b9125b0467fb8e8fcc2bda46727.mp4
Аноним 16/06/24 Вск 19:54:28 #326 №789331 
watermarkedvideo00a60637c734a44fab25c8360786a381d.mp4
watermarkedvideo0514d4dc1ede74c9caf4d0677b087610b (1).mp4
watermarkedvideo06aabf48a2fcd4ac5a1413d174cba8872.mp4
watermarkedvideo0c35103e1ad434c56b2afaa76c6ea729a.mp4
Аноним 16/06/24 Вск 19:57:03 #327 №789336 
watermarkedvideo092420a79b4df49cd9d5daf85c9cda634.mp4
watermarkedvideo0514d4dc1ede74c9caf4d0677b087610b.mp4
RDT20240615220102.mp4
17184392663450.mp4
Аноним 16/06/24 Вск 20:06:25 #328 №789357 
>>789336
Моар
Аноним 16/06/24 Вск 23:53:52 #329 №789673 
>>649947
Это да, это реалистично
Аноним 17/06/24 Пнд 00:21:30 #330 №789699 
Сделайте отдельный тред для Люмы. Или я могу сделать сам.
Аноним 17/06/24 Пнд 00:48:55 #331 №789745 
image.png
>>789699
Аноним 17/06/24 Пнд 01:12:02 #332 №789775 
>>789745
https://2ch.hk/ai/res/789774.html
Аноним 18/06/24 Втр 02:30:07 #333 №791291 
rapidsave.comnewestrunwayaivideoresultwhatdoyouthink-pepw6f0rn57d1.mp4
Новую видео нейронку обещают запустить в течение нескольких дней в публичное поле
Конкуренты поджимают сору
Аноним 18/06/24 Втр 04:17:06 #334 №791308 
>>791291
Она лучше люмы, но все еще объективно хуже соры. На неодушевленных объектах прям совсем жепа
Аноним 18/06/24 Втр 08:05:28 #335 №791375 
анон наложил звук.mp4
>>783839

Соси хуй, быдло
Аноним 18/06/24 Втр 18:34:55 #336 №791820 
rapidsave.comcrazytimesaheadthisvideoisnotrealrunway3-4xe3gpc2e87d1.mp4
runway нейронка
Аноним 20/06/24 Чтв 15:23:19 #337 №793287 
>>791375
Не ну клип то сшит из кусков. Видно по логотипу Luma (да и так понятно, лол)
В целом Luma и подобные генераторы видео это конечно прорыв.
Т.е. генерация картинок, потом генерация текста, сейчас вот генерация видео, а потом может быть и генерация сознания например. И это уже будет что то максимально приближенное к сильному ИИ
Аноним 22/06/24 Суб 00:21:29 #338 №795395 
rapidsave.comannouncethatklingsimagetovideo-0i3in0r1dw7d1.mp4
Ещё одна видео нейронка
Аноним 22/06/24 Суб 00:30:14 #339 №795406 
А ведь когда-нибудь появится видео нейронка, которая без багов будет все идеально генерировать по твоим запросам. Интересно сколько осталось ждать
Аноним 22/06/24 Суб 18:48:08 #340 №796127 
>>795406
По графику аналогично картинок, 3 года. Сейчас каляки сравнимые с minidalle из 2021 года
Аноним 23/06/24 Вск 16:59:39 #341 №797496 
А какую нейронку для генерации видео сейчас физически можно установить локально? Только video diffusion?
Аноним 23/06/24 Вск 17:19:39 #342 №797538 
>>795406
>А ведь когда-нибудь появится видео нейронка, которая без багов будет все идеально генерировать по твоим запросам.
Но ведь даже картинка генераторы ещё до такого не дошли, кхм, почти.
Аноним 23/06/24 Вск 17:24:18 #343 №797552 
>>797496
Слишком дорого для свободной тренировки. Разве что компашка лицокнига выкатит что-то, они же вроде за опенсорс. Мои надежды призрачны.
Аноним 01/07/24 Пнд 16:00:31 #344 №806584 
Нечерепикнутые результаты ранвея конечно тот еще кал, даже люма лучше выглядит. Надежда только на то что та китайская параша пойдет на глобальный рынок. Шансов увидеть сору походу уже нет
Аноним 03/07/24 Срд 22:30:22 #345 №808534 
>>806584
Не пизди, охуенно выглядит ген3. Лень видосы все сохранять и сюда заливать. Смотрите в комментах. 10 секунд + горазда меньше багов при генерации
https://www.reddit.com/r/ChatGPT/comments/1dts5qd/spent_95_for_gen3_comment_your_prompts/
Аноним 04/07/24 Чтв 22:28:14 #346 №809386 
>>808534
Почекай нечерипикнутые видосы, где сразу промпт и результат показывают. У ген-3 все еще хуево с консистентностью, но еще более хуево с пониманием промпта. Китайский клинг хотя бы хорош в плане консистентности, на счет понимания промпта хз, там нужен китайский номер чтоб протестить, а нормальных видео по нему нет.
Аноним 06/07/24 Суб 01:12:52 #347 №810161 
m2-res720p.mp4
Кот режет грудинку
Аноним 06/07/24 Суб 01:27:52 #348 №810177 
>>810161
Ну китайская модель крайне неплоха, да. Надеюсь они выйдут в глобал все же, но им надо модель подтюнить под инглиш, надеюсь ее полностью переучивать не нужно
Аноним 06/07/24 Суб 01:51:17 #349 №810191 
>>810161
Аж самому не терпится попробовать, так облизывает нож
Аноним 06/07/24 Суб 15:01:49 #350 №810468 
m2-res1280p.mp4
>>810177
>>810191
Кот ест хот-дог
Аноним 07/07/24 Вск 12:03:02 #351 №811076 
>>810468
Теперь давай хот дог который ест кота.
Аноним 07/07/24 Вск 13:59:56 #352 №811161 
>>811076
Ниче он тебе не даст, сора черипикинговое фейковое говно. Сделай себе в люме.
Аноним 07/07/24 Вск 23:32:23 #353 №811565 
>>811161
Это не сора, чел, это китайская модель клинг и она есть в свободном доступе, но туда нужен китайский номер. Люма же срака та еще, объективно лучше старых моделей вроде ген-2, пика лабса и сд-видео, но все еще очень слабо.
Аноним 07/07/24 Вск 23:53:14 #354 №811576 
Делаю ебанутое предположение. Сору до сих пор не открыли, потому что сора - это не видеомодель, это мультимодальная ллм, основа под гпт-5. Короче выход гпт-5 будет означать выход соры. Генерация будет прямо в интерфейсе чата с ллм, с возможностью уникального промптинга, например можно будет попросить сору заменить персонажа в видео на другого персонажа. Вы уже можете найти подобные примеры замены персонажа в примерах соры.
Аноним 08/07/24 Пнд 10:45:38 #355 №811848 
>>811576
все намного проще

попенам надо было что-то выпустить чтобы не выглядеть настолько жалкими перед конкурентами, в итоге они обосрались ещё сильнее, потому что людей уже заебали их анонсы анонсов
держатся пока за счёт популярности и хайпа, но этой компании уже точно пиздец из-за её конченных NDA и ушедших людей, на которых эта компания держалась
Аноним 09/07/24 Втр 06:53:58 #356 №812372 
55.mp4
Аноним 14/07/24 Вск 12:11:39 #357 №816107 
hjhj
Аноним 26/07/24 Птн 02:47:02 #358 №827965 
Там китайская нейронка всем доступна кста теперь
Аноним 28/07/24 Вск 13:52:35 #359 №830529 
20240728143735-90sN64GameStyle.mp4
20240728143722-StudioGhibli,StdGBRedmAFtargetisa45.mp4
>>643127 (OP)
посоветуйте нейронку для перевода видео в МАНЯМЕ

пробовал ленсго.аи, платная, дорогая, результат говно (видрелейтед)
Аноним 31/07/24 Срд 03:40:21 #360 №834141 
>>830529
Попробуй DomoAI в дискорде. У них вроде неплохая модель была
Аноним 09/08/24 Птн 17:27:36 #361 №847411 
>>834141
спасибо анончик, затестим)
Аноним 12/08/24 Пнд 13:49:38 #362 №851143 
g
Аноним 10/12/24 Втр 00:18:13 #363 №972979 
Дождались наху
Аноним 10/12/24 Втр 13:22:04 #364 №973345 
sora-huera.jpg
https://www.youtube.com/watch?v=OyQcmzx6Vv8


у каво работает ?77
Аноним 10/12/24 Втр 19:58:39 #365 №973721 
>>973345
Месяцев через десять загляни в тред, тогда все допилят уже и мы будем со счастливой улыбкой генерировать видосики.
comments powered by Disqus

Отзывы и предложения