Инженеры из компании NVIDIA опубликовали заметку, резюмирующую планы в отношении перевода проприетарных драйверов NVIDIA на использование по умолчанию открытых модулей ядра Linux для GPU, начиная с микроархитектуры Turing (GeForce GTX 1600 и RTX 2000). Используемые в драйверах NVIDIA модули для ядра Linux были открыты весной 2022 года под лицензиями MIT и GPLv2, а план по использованию их по умолчанию был анонсирован два месяца назад. Речь только о переключении основного пакета драйверов по умолчанию на уже существующие открытые модули, которые ранее поставлялись в качестве опции. Предоставляющие основную функциональность прошивки и компоненты, работающие в пространстве пользователя, такие как библиотеки для CUDA, OpenGL и Vulkan, остаются проприетарными...Подробнее: https://www.opennet.dev/opennews/art.shtml?num=61577
Прекрасные открытые дрова!
В которых лежит прекрасный открытый код
github.com/NVIDIA/open-gpu-kernel-modules/blob/main/src/nvidia/generated/g_bindata_kgspGetBinArchiveBooterLoadUcode_AD102.c#L40
Прям читать не перечитать! Писать не переписать!
Справедливости ради, это проблема любого языка, позволяющего себе низкоуровневые оптимизации. Код на интринсиках для векторной математики тоже выглядит как китайская грамота. Пример: https://github.com/GaijinEntertainment/vecmath/blob/master/d...
Те, кому нужно, те разберутся в этом нагромождении из букв и цифр.
Дааа, название GetBinArchiveBooterLoadUcode прям кричит, что это низкоуровневая оптимизация))Оптимизация, как низкоуровнево послать всех умников из кернела, которые символы ядра блочили.
А так код - вот он есть. Но расшифровать его сможет только чип в видяхе.
UCode в названии метода - это микрокод. Он буквально должен быть быстрым, даже если он будет для человека набором хекс-кодов.
Проще говоря, тебе шашечки или ехать?
А kgsp - это Korean Government Scholarship Program.
Проще говоря, тебе блобы или опенсорс?
Открытость аппаратуры никто же не заявлял... :(
К тому же, без открытости чипа(но и с ней - как проверить тождественность vhdl'ю)
- и открытость микрокода не гарантирует отсутсвие зловредности, от разраба,
в т.ч.позволяющего её другим - посредствов обнов,
(уч.заведомую зловредность x86 и не только архитектур(ы) позволяющей безконтрольный доступ любому подключённому оборудованию к любому участку памяти и др.оборудованию, да и самой же не окрытой).А, мы все с вами уже знаем что все эти даже открытые драйвера, от заведомо зловредов - очередная хуцпа:
- https://www.opennet.me/opennews/art.shtml?num=61231#256
и там же пост сразу ниже.
P.S.
Лично мне, как владельцу не такой совр.карты и т.б. и почти самых первых карт, включая nV,
- всё стало понятно уже с этого
"начиная с микроархитектуры Turing (GeForce GTX 1600 и RTX 2000)"
эта их opensource инициатива - тупо маркетинг никсоидам и бесплатный пиар в Internet этих и последующих линеек продукции компании...P.S.S.
В свете всего ук. выше и по ссылке - для безопасности пользы почти ноль,
м.б.полезно сугубо для желающих что то исправить или оптимизировать, вместо разрабов...(и просто видя что и конкуренты не отстают - надо срочно открывать...
и т.б.open-source nV драйвера даже вопреки договорняку с ним - догоняют закрытый драйвер усилием сообщества вне их договорняка, т.б.по договорняку с Торвальдсом и/или разработчиков OS Linux-форков и с чертями с человеческим обличием у разработчиков из FreeBSD
явно их же, как аргументированно по ссылке выше, - давно зловредность вставляя где то в ядро никсов разных и/или в сбоки ОС, потому и свои закрытые дравейвера уже можно смело открыть - никто не подкопается же в их исх.коде; но, над осатаневшими давно линуксоидными пользователями и чертям из nV лучше конечно поиздеваться в их же стиле - открыть только для последне-продаваемых моделей... И да что там с патентами на реализацию [в коде]?... )
Ну ладно, вместо разработчиков так вместо, в т.б. у баг-правки и просто-обнаружить их тут больше шансов.
Но, всё же жаль что не открыли для всех своих видеокарт и в т.ч.и для виндов([spoiler]в т.ч.для старых версий драйверов, т.к.более новые даже при поддержки старых видеоадаптеров {что как знаем только до определённой версии у них, и так каждый раз...}
- просто не запустятся на ранее вышедших и даже боле ранникх ПК к тем;
да все дравера были [маркетингово] залаганны с каждой большей версии - т.е.в идеале можно было бы даже пересоздать драйвер начиная с самых первых как самых нетребовательных начиная уж если не с нуля или самой первой то не далее ver.10-12.xx, т.к.уже 40.xx и т.б. 70.xx - x 300% FPS маркетингово залагивает даже для их уже ранее выпущенных видеокарт, тем принуждая переходить на новые, которые заодно чтобы казались более оптимизированными по сравнения со старыми где всё уже залаганно обновлёнными драверами... а, лет через пять и сами так же залагиваясь; правда, где то 2012 видел то ли оптимизацию реальную, то ли [времнное]отключение старой деоптимизации, - по тихому аж на 25% ускорившую(30=>40+без лагов), впрочем только для ими же пиареной с@танинско-проп@ганд.нской серии Мetro:XXX, и всего в одной версии драйвера, потом опять эти "драйвер отимизрован на +5-10% в такой то другой игре" каждую версию драйвера а, реально не факт что и на столько - ведь и не во всех играх, т.е. не устанавливать же для проверки причём вместе с предыдущей версией драйвера и затем опять последнюю... да и как их пользователь сможет проверить - ведь это погрешность измерений...[/spoiler])Так вот, в добавк может и я помог бы, помогя себе и бонусом другим игрокам, уж если не программированием(из-за нехватки времни) то хотя бы сообщением програмистам в ядре(правда мне больше под винду драйвера нужны но и это тоже не помешает - хоть просто как opensource инициатива): потому что я имею некоторые соображения как даже без их видеокарт с 3D-ускорением - программной отрисовкой немного быстрей выводить, что критично когда FPS лагает, а уж с аппартным ускорением... впрочем, разрабы явно всегда считали незапланирвоанное ими маркетингово ускорение - им не выгодным, т.б.как ук.выше и даже доп-но исскуственно затормаживая для вытягивания больше денег: созданием из одной - целой линейки карт с разной производительностью и ценой, как и с разной функциональностью и ценой у т.н.Pro карт, в т.ч. и падлючно совсем - то что ранее ими же самими поначалу продавалось и в игровых версиях, например, не залаганный вывод 3D-линий в ч.н.для Wireframe и прч.в 3D-редактах игр и CAD конечно; а, без открытия драйверов всеми - мне нет резона даже просто опубликовать гденибудь - запатенутет же ктонибудь, а то и положив под сукно по ук.выше маркетингу, и прощай вовсе... замкнутый круг а, ещё всем [само-]внушается с детства что патентная-мафия способствует прогрессу...
Я то даже не против патентов(по кр.мере не тривиальных и требующих серьёзных инвестиций, хоть и неприятно отношение к ним "на светлом и пушистом" Западе и тут имеющаяся двойная мораль - не считая их тогда уж монополией и монополистами...), но, не как средство борьбы с конкурентами же, а в даннмом случае и с рядовыми програмистами - создателями программных реализаций 3D движков "убитых" как вид деятельности конкуренцией с этими почти 30 лет назад после выхода первых 3D-ускорителей (в т.ч. т.н.нечестной-конкуренцией - в ч.н.руками пр.паг.ндистов с.танизма idSw - исск-но в Q2 ухудшивших качество графики в его программном отрисовщике сранительно с с аппаратным ускорением, в т.ч.оч.броско визуально - заблокировав цветное освещение, много позже, после открытия движка добавленного энтузиастами).
И ведь даже конкуренцией с программной реализацией как вид, т.е.без необходимости не только доп.трат денег игрокам но доп.трат АКБ на всём переносном(вон придумли ставить по два видеоадаптера для экономии энергии, как будто второй состоя из сотен миллионов транзисторов не потребляет много энергии), - как ук. далеко не всега честной конкуренцией... а, у расм. производиля - так всегда т.н.нечестной-конкуренций: залагивание 2D blit отн-но в 3D режиме (доп-но даже def.VESA дравером виндов начиная с w2K саму отрисовку до заметно дико лагающей, чтобы 3D блоб дозакачивали а, через него явно добавляя зловредность, а он же ещё в Ring0 - никакие антивирусные защиты ему не страшны), под OEM/DOS создание искусственно несовместимости с API VESA2 стандарта при формальной его поддержки, исск-ное ограничение кол-ва доступных видеорежимов в VESA без доп.драйвера-блоба, что все и никосды и производители ОС на себе прочувстввоали в виде ограниченности и тормозов их VESA 2D драйввера, в итоге мега-переусложняя Linux-kernel поддержкой [DRM] 3Д драйверов, которые тоже ж ещё надо уметь оптимизировать и желать тратить много времени на это, в т.ч.отвлекая разработчиков от всего прочего в ядре и прочем, и бонусом куча доп.багов пользователям.
(А, VESA линукс драйвер - кто про него вспомнит... вон даже в актуальных версиях его выкинули из даже ГРАФИЧЕСКИХ установщиков линуксов - заведомо лишая совместимости дистриб с видеоадаптерами позже его ядра выйдущими... впрочем, чего жалеть, скажут разбаботчики линукс-форков, он и так даже в версиях 15 летней давности был демонстративно нефункциональнен, сразу или чуть позже вываливая Искы. В общем, кто то подсуетился с "донатами" Торвальдсу и/или майнтейнерам).
> заблокировав цветное освещение, много позже, после открытия движка добавленного энтузиастамиQ2 в софте тянул даже первый пень. А с цветным освещением как там требования поднимаются, а? В id всегда на народное железо ориентировались.
> А, мы все с вами уже знаем что все эти даже открытые драйвера, от заведомо зловредов - очередная хуцпа:
> - https://www.opennet.me/opennews/art.shtml?num=61231#256 и там же пост сразу ниже.Ого! Вот это монументальный труд!
Можно сразу бежать за шапочкой из фольги.
Судя по датам - просто весеннее обострение.
Беги беги, а то не успеешь на распродажу.Монументальный ну пусть так, (я только тут где то 30% вырезал для лаконичности),
надеюсь написал не только что бы кокой то любитель надевать шапочки алюминиевые себе и другим - калло-вентиллировал воздух.
> Q2 в софте тянул даже первый пень. А с цветным освещением как там требования поднимаются, а?
>> (заблокировав цветное освещение, много позже, после открытия движка - добавленного энтузиастами)Смотря как сделать, если тупо-универсально ~будет небольшая но, ск.всего измеряемая просадка.
Если ограничить пересечения разных цветов в пределах треугольника, на картах, в т.ч.принудительно в редакторе, либо автоблокируя лишние ИстОсвещения в этом режиме [там же] - задержки не должно быть вовсе.> В id всегда на народное железо ориентировались.
Только в сравнении с криворучками, или возможно тоже на "донатах" производителей железа для ПК.
А, так - только на топовое, всю свою историю(начиная даже с Wolfenshtein 3D)
принуждая владельцев к "обновлениям" ПК, как белка в колесе.
Более Кваковский движок это квентисенция тормозизма, т.к. в нём отказались от многих оптимизаций ранее уже бывших!(fixed=>fpu,не исп.LUT под триг - что просто убило тогда популряные ещё 486 даже топовые, сетевиков и графодрочеров же вынудили массово в мире покупать пни, затем опять покупать, покупать... Или тот же DOOM3 был с настолько нетипично топовыми запросами что тормозил всех, лишь те у кото было денег не некуда девать и избыток желания на то - заказывали из-за границы самые-самые топовые видушки, видел возмущения).
В названии присутствует слово image то есть это просто картинка.
picture - картинка, мгимо финишед?
Image может переводится как образ. Например disk image - образ диска.
> Image может переводится как образ.Без может. Image с ангийского - образ.
Всегда было интересно: зачем вы лазиете по гит хабу и ищите всякий ужас? Это хобби такое?
И что такого? Просто запакованный имедж, распакуй обратно и изучай
Ты уверен, что не балабол?
Проблема в том, что для распаковки нужно знать ключ, который вшит в графический процессор.Это ровно такая же схема, как с микрокодом у Intel: он расшифровывается процессором. А чтобы посмотреть расшифрованный микрокод, приходится прикладывать титанические усилия, см. исследование Positive Technologies, которые с помощью недокументированных команд, аппаратного отладчика и такой-то матери смогли ввести один процессор в отладочный режим.
А, подорбности будут? ссылка, что нашли интересного(впрочем, вовсе не обязательно - озвучив...)
тебе зачем этот микрокод-то сдался?
это некая внутренняя реализация устройства, для удобства она сделана через микрокод и встроенную некую машину исполнения.в старые времена процессор был один в системе и все пытались на него навесить свои драйвера в каком-нибудь SMM режиме или ещё как. И вот с этими закрытыми блобами все и боролись.
А то что внутри девайса есть какой-то процессор и что-то там делает, ну это дела разработчика девайса, может и на конечных автоматах сделать.
так это разве не код GSP, который и заявлен блобами?
> github.com/NVIDIA/open-gpu-kernel-modules/blob/main/src/nvidia/generated
> /g_bindata_kgspGetBinArchiveBooterLoadUcode_AD102.c#L40Лол. Расскажите уже кто-нибудь упырям из нвидии про репу linux-firmware и про facility firmware-loader'а в кернеле? Чтобы не заниматься такой откорвенно индусской порнографией на публику.
Тоже мне компания на дохреналиард, у которой кишки драйвера такие что даже Раджи с Гоа дружно блюют радугой.
Что-то [1] подсказывает, что невидия и так знает про репу linux-firmware.
Но туда заливать не интересно. Это ж блобы будут, фуфуфу, всякие дебианы и латиносы пованивать начнут.Намного круче залить в виде сорцов и смачно поводить по губам шообществу!
[1] git.kernel.org/pub/scm/linux/kernel/git/firmware/linux-firmware.git/tree/nvidia
> Но туда заливать не интересно. Это ж блобы будут, фуфуфу, всякие дебианы
> и латиносы пованивать начнут.Ну дык значит не будет у них GPU'шка работать - что с этим поделать?
> Намного круче залить в виде сорцов и смачно поводить по губам шообществу!
Типа, в надежде на лоха, что сорец вообще совсем не читают? Да факЪ это даже на опеннете не прокатило! На опеннете, Карл!!
> [1] git.kernel.org/pub/scm/linux/kernel/git/firmware/linux-firmware.git/tree/nvidia
Неплохо бы конкретики.
> Неплохо бы конкретики.Какой конкретики?
Один анон пишет "расскажите уже кто-нибудь упырям из нвидии про репу linux-firmware"
Второй кидает ссыль на саму репу в секцию nvidia, как бы намекая, что нвидия и так знает про репу linux-firmware.
Что тебе еще объяснить?
Там же ясно написано
/* THIS FILE IS AUTOMATICALLY GENERATED, DO NOT EDIT! */
Т.е. это не есть исходник. Если я удалю этот файл, то из исходников его можно получить каким-нибудь 'make generate' или подобной командой.Или нельзя? Если нет (недостаточно исходников открытых реп), то это блоб, со всеми вытекающими.
>это не есть исходник. Если я удалю этот файл, то из исходников его можно получить каким-нибудьНу и где этот исходник? Зачем вообще публиковать данные, если их можно (якобы) запросто сгенерировать?
Я не понял, а что нет так-то? Это кусок бинарщины в код так добавлен.
Ну, проблема в том, что это бинарщина, это вроде как понятно в вашем посыле. Но это не меняет, что часть кода открыта. Вы первый раз видите, чтобы так бинарщину в код засовывали?
Так а в чём проблема? Это для железки микрокод. Недавно на работе разбирался с драйвером реалтековского PHY-я в u-boot-е, точно такой-же микрокод в исходниках.
https://elixir.bootlin.com/u-boot/v2024.07/source/drivers/us...
В общем-то, код, который выполняется на твоем CPU - открыт, а открытость железа никто не заявлял.
> а открытость железа никто не заявлял.Вот поэтому все разговоры про открытые исходники и свободу - фикция.
Что-толку от открытых исходников, если железо закрытое и внутри себя оно может делать, что захочет.
Кто вам открытое железо сделает? Уж не Столман ли?
Да, собственно говоря, железка пусть делает что захочет, она ведь все-равно за пределы выделенного ей DMA-загона не выйдет. А в случае realtek-а, дальше USB шины. Это же не intel ME какой-нибудь.
> железка пусть делает что захочет, она ведь все-равно за пределы выделенного ей DMA-загона не выйдет.Если так рассуждать, то и в проприетарном софте тоже ничего плохого. Запускать его в виртуальной песочнице. Все равно из выделенного загона не выйдет.
Все норм.
Поддержку "старых" архитектур они конечно делать не будут. Нельзя ведь просто взять и открыть проприетарные модули управлением питания... Мою 1080 можно выкидывать на помойку после таких планов и, наконец-то, переходить на AMD.
главное не забудь дать адресок помойки.
Адрес той помойки ему самому пригодится после первого знакомства с политикой депрекации железа в amd rocm и прочих.
>> Карта должна бвть либо последнего поколения, либо если денег нет то ладно уж предпоследнего.Кому должна? Американцам? Ну, как шутил господин Задорнов - только у нас сумма стоимости айфонов в маршрутке может превышать стоимость самой маршрутки. Вроде бы и смешно, а прибыль то у соединённых.
> Кому должна? Американцам? Ну, как шутил господин Задорнов - только у нас сумма стоимости айфонов в маршрутке может превышать стоимость самой маршрутки. Вроде бы и смешно, а прибыль то у соединённых.Зачем вы считаете деньги в чужих карманах?
маршрутках
Чтобы понять, сколько они перетащили из его кармана в свой.
Задорнов путал цену со стоимостью, хотя марксистскую политэкономию явно изучал.
Фу такое старьё в руки брать. Карта должна бвть либо последнего поколения, либо если денег нет то ладно уж предпоследнего. Для остальных случаев встройки достатчно.
да ей и так не помойку пора уже несколько лет как.
1080 до сих пор способна современные игры тянуть в FullHD.
А что еще нужно для счастья?
Правда без волшебных лучиков Хуанга. Но, я что-то особой разнице в картинке не замечаю. Что с лучиками, что без них.
> 1080 до сих пор способна современные игры тянуть в FullHD.Ждал этого коммента.
угу на средних настройках с 60% рендера
Из разряда найди 10-ть отличий *существенных*, хотя бы одно...А, 60% это надо думать 60FPS и выше?...
К сведению даже евро TV-стандарт - 30, больше не нужно - научно там всё обоснованно.
И я лично тестировал перебором на разных сценах: для идеальной плавности картинки - достаточно всего 25FPS в т.ч.и в записанном виде где уже просто идеально гладко всё
(даже при резких разворотах на открытом пространстве с высокими стенами сбоку - как самая броская сцена для лагов), т.е.даже если в игре - они же [в ч.н.FRAPSом из-за записи] тормозят, в том же месте где и видео записанно, то в игре без тормозов или в видео - лаги отс-ют,
так что дело не в необходимости 100-500 FPS и БП1000Вт к видушке(ам) - а, всё же криворукости, лени и продажности разработчиков ОС и игр на ПК, если тормозят на 25FPS .
(притом что, даже я могу различить разницу где до 250 FPS, на 60Hz TFT мониторе:] и этому даже нашли техническое объяснение, неважное тут, главное то что это избыточные FPS - их при большом желании можно увидеть сранением одной и той же сцены что не очень типично в играх самом по себе - но, реакция ввода игроков никак не сопотавима с ними... а ещё же есть задержка рассчёта, вывода и отображения... т.б.на IPS матрицах(у меня такая и не скажу что виз-но медленная, но тем не менее - аж до 25 ms пикселы переключаются), и особенно на ТВ а, на древних - вовсе громадная(сотни мсек), потому даже для MP-игры эти 250FPS - безсмысленны, только за зря грузят ПК/АКБ)
>> угу на средних настройках с 60% рендераУ меня 1080 нет на руках, но просмотр тестов в Ютубе говорит, что она вполне тянет игры даже сейчас.
> А, 60% это надо думать 60FPS и выше?...
Я так понял, чел про технологии апскейла говорит, типа, FSR
> для идеальной плавности картинки - достаточно всего 25FPS
Да, только мальенькие феписы связаны с большим инпут лагом, из-за которого управление идет с задержкой и создается ощущение тормозов.
Что толку от плавной картинки, если сама игра начинает тормозить?
> Из разряда найди 10-ть отличий *существенных*, хотя бы одно...
> А, 60% это надо думать 60FPS и выше?...60% это когда на твоём 1080р мониторе ты видишь картинку 768х432.
> К сведению даже евро TV-стандарт - 30, больше не нужно -
> научно там всё обоснованно.Вообще то евро тв стандарт это 25 кадров, а американский стандарт 30.
> И я лично тестировал перебором на разных сценах: для идеальной плавности картинки
> - достаточно всего 25FPS в т.ч.и в записанном виде где уже
> просто идеально гладко всёВремя отклика и интпут лаг вышли из чата. Удачи поиграть в сетевые шутеры с 25 кадрами или в платформеры у которых анимация просчитана под 60 кадров.
> (даже при резких разворотах на открытом пространстве с высокими стенами сбоку -
> как самая броская сцена для лагов), т.е.даже если в игре -
> они же [в ч.н.FRAPSом из-за записи] тормозят, в том же месте
> где и видео записанно, то в игре без тормозов или в
> видео - лаги отс-ют,
> так что дело не в необходимости 100-500 FPS и БП1000Вт к видушке(ам)
> - а, всё же криворукости, лени и продажности разработчиков ОС икакая связь количества кадров и блока питания? Блок питания на киловт нужен как минимум по причине того что у него сертфикат выше чем на 500 ВТ и он тупо дольше проработает.
> игр на ПК, если тормозят на 25FPS .
> (притом что, даже я могу различить разницу где до 250 FPS, на
> 60Hz TFT мониторе:]ты не можешь различить на 60Гц мониторе количество кадров выше 60, это тупо невозможно.
Да, прекрасная видюха. Проблема в том что, если надо "тянуть" - дуалбут в помощь. Мне тут нефиг было делать, решил для себя потестить производительность игр в разных ДЕ на примере Киберпанка, заодно и в Винду ребутнулся, раз уж она на харде есть. Видюха 1660ti, что, хуже по производительности чем 1080. В общем на хай пресете результаты такие: Винда 10: средний: 72.69 мин: 60.03 макс: 88.10, Линукс CahyOS 6.10(ядро), 555.58.02 драйвер, запускалось через ПортПротон. средний: 63.89 мин: 53.24 макс: 77.06. Это лучший результат, полученый на i3. На кедах под иксами чуть меньше, на кедах под вяленым: -0.5 сердний фпс относительно иксов. К чему это я? Если нужно именно "тянуть" - ребутнулся, поиграл. Если "тянуть" не надо, т.е. производительности хватает, оно и так всё будет прекрасно работать. Я могу ошибаться, но там в дровах никакой магии не происходит, просто затычки для новых игр. Да, грустно, но есть условный срок поддержки для продукта, и для 10хх серии этот срок заканчивается. Придётся сидеть как и другим пользователям более старых видюх на старых драйверах без улучшений под новые игры.
А вейланд был, я так понимаю, xwayland? Те же иксы, только хуже. Много переменных, надо твикать, опять же. К слову, на i3 у меня всегда была плохая производительность. Лучше всего на openbox и kwin_x11 без эффектов. Вейланд надо сравнивать в полноэкранном режиме и если это было больше месяца назад, стоит перепроверить с актуальными версиями плазмы.
> А вейланд был, я так понимаю, xwayland? Те же иксы, только хуже.
> Много переменных, надо твикать, опять же.Не, хвейланд это костыли чтобы запускать софт от бракоделов, которые не удосужились обновить его к новому стандарту
> К слову, на i3 у меня всегда была плохая производительность.
О... ты бы еще мотиф вспомнил).
и3 это устаревший хлам который уже вынесли на помойку.
Никто в здравом уме не будет что-то под него оптимизировать.
Чем больше ты покупаешь, тем больше ты экономить (с)Хуанг
> Мою 1080 можно выкидывать на помойку после таких плановМожно спокойно пересидеть на ней еще парочку лет.
Поддержку в новых драйверах дропнут не сразу.
А когда дропнут, старые драйвера еще какое-то время к новым ядрам будут подходить.> и, наконец-то, переходить на AMD.
Да особо не на что переходить. Сейчас и у nVidia и у AMD застой. Последнее поколение не сильно лучше предидущего. Топчутся на месте.
> Да особо не на что переходить. Сейчас и у nVidia и у AMD застой. Последнее поколение не сильно лучше предидущего. Топчутся на месте.Да что угодно лучше его 1080. Моя прошлая RX 6600 лучше его 1080, а это уже бюджетка.
Cuda работает на RX 6600 чтобы нормально работать?
> Cuda работает на RX 6600 чтобы нормально работать?А чем вы на работе занимаетесь, если не секрет?
Что прям вычисления на Cuda нужны.
Да еще на личном десктопе, а не на сервере в облаке...
> А чем вы на работе занимаетесь, если не секрет?Бендер умеет в куда.
> личном десктопе
А если на рабочем десктопе?)
> Бендер умеет в куда.О Господи, а я уж думал вы там на Cuda научными вычислениями занимаетесь. Физические процессы моделируете.
А оказалось, что это просто ускорение в Блендере.
Блендер и на АМД поддерживает ускорение.> А если на рабочем десктопе?)
Да какая разница? Дестоп и Cuda - понятия слабо пересекающиеся.
Серьезные вычислительные задачи совсем не на десктопе крутятся.
Для optix, кстати, нет альтернатив. Ну, есть "аналоги" в какой-то мере.
Глупости говоришь, cuda нужна каждый день на рабочей станции и задачи совершенно разные можно решать. Большинство задач выносить в облака было бы неимоверным аутизмом по причине низкой эффективности и высокой цены.
Да, так в целом и сделаю. Застой-застоем, но в целом покупка AMD карточки будет куда более логичной для использования под линуксами. Меньше геморроя, так еще и полная совместимость с общепринятым видео-стеком. Сомневаюсь, что открытые драйвера зеленых будут готовы даже через 3-4 года.
GTX 650 прекрасно идёт в Void linux с проприетарными дровами, а это, на минуточку, роллинг-дистрибутив. Просто почему-то некоторые дистрибутивы linux выкинули старые драйвера nvidia.
нельзя, у неё беды с вулканом под линуксами. работать она работает, но производительность в каком нить киберпанке хуже чем под виндой
Т. е. буквально пройти на релизе под виндой его в на 1080 было можно, а под линуксами откровенно не тянуло в 3.5к на минималках, замена на 3080 решило все полностью
>замена на 3080 решило все полностьюКхм, не хочу показаться токсичным, но замена на 3080 решает вообще все проблемы. И если взять аналог от красных в том же бюджете - тоже будет всё хорошо. За исключением всяких КУДА. Т.е. то что не доступно по техническим причинам.
Предыдущее это которой уже 2 года? С ними были определённые проблемы, например, с датчиками и охлаждением памяти, в новой итерации могли исправить. Они были очень значительным улучшением, емнип амд так и не смогла предложить ничего похожего. Но более нового пока и нет. В чём выражается застой у nvidia?
> В чём выражается застой у nvidia?Я недавно покупал карточку. Требования были простые: иногда поиграть без фанатизма. На игры особо лишнего времени нет.
Минимальная карта, чтобы побаловаться нейросетями.
И бюджет примерно в районе 300 долларов. Сильно дороже отдавать за компьютерную запчасть - меня жаба душит.В итоге не нашел ничего лучше, чем купить rtx3060 12Gb.
Хотя это старое поколение. Давно в продаже 4000 серия. И, анонсирована 5000.
Получается купил карту, устаревшую на 2 поколения. Больше брать нечего было.На флагманы даже не смотрел. Они стоят как чугунный мост и пусть Хуанг их сам покупает.
На карты от АМД не стал смотреть. Потому, что там с поддержкой нейросетей хуже.
Если в игры редко играть у них системные требования падают?
Падают самым радикальным образом.
Если редко играешь, значит игры - не приоритет в жизни. Так, низкопробная развлекуха иногда расслабится, развлечься.
Ну, а если не фанат игр, то и претензий к картинке особо никаких. Не нужны становятся 4К и волшебные лучики Хуанга. Системные требования уменьшаются будь здоров!
Наоборот же. Чем меньше времени на игры, тем выше требования и больше ожидания. Кто будет тратить своё время на третьёсортный опыт? Только те, кто играет в игры постоянно.
> rtx3060 12Gb
> На карты от АМД не стал смотреть. Потому, что там с поддержкой нейросетей хуже.Странный аргумент. Потому что производительность rtx3060 в нейросетях чуть выше дна.
> производительность rtx3060 в нейросетях чуть выше дна.Да пофик, вообще. Главное что запускаются и работают.
Я на нейросетях не зарабатываю и услуг не оказываю.
А для личных целей и задач мне производительности хватает с головой.
всегото 12Gb?>На карты от АМД не стал смотреть. Потому, что там с поддержкой нейросетей хуже.
просто дай им время - я думаю скоро они придумают свой аналог нейросетей
> Мою 1080 можно выкидывать на помойку после таких планов и, наконец-то, переходить на AMD.Я 960-ую в 2022 году выкинул, когда понял, что с Wayland туго.
А вот в Ubuntu 24.04 до сих пор иксы дефолтом для Nvidia.
Сколько луддитствовать можно-то...
> А вот в Ubuntu 24.04 до сих пор иксы дефолтом для Nvidia.хоть какие-то плюсы от невидии
>> А вот в Ubuntu 24.04 до сих пор иксы дефолтом для Nvidia.
> хоть какие-то плюсы от невидииВы так радуетесь планам вцепиться в друг друга и утонуть на пару, мешая друг другу плыть? Во вы странные люди. Не, майнтайнить ради вас иксы никто ессно не будет. И уж конечно у убунты нет своих разработчиков на это в нужном количестве.
>когда понял, что с Wayland тугочего? сегодня вейланд и vaapi только на nvidia и работают.
какбэ нет. Intel тот же куда лучше в этом плане, чем костыли на Wayland от васянов
Не лучше, постоянно отваливается тоже. С костылями пока минимум проблем было, как direct api добавили.
Вобщем, вывод известный, Вяленый ещё немного не готов.
> Вобщем, вывод известный, Вяленый ещё немного не готов.Это vaapi, с вяленым у меня было 0 проблем пока. На nvidia и проприетарном драйвере. Некоторые игрушечки, похоже, с xwayland не работают (рандомные падения), но пока все работали, если отключить xwayland. Вайн тоже можно без иксов запускать. Тройная буферизация, похоже, не работает в 555, но я не знаю, зачем она мне. В последнем апдейте отключили в коде.
Даже с 555 драйвером, для части пользователей - Иксы луче Вейленда. В чистых попугаях оно отстаёт. Ну и всякие баги при работе через хВейленд никуда не деваются.
В каких, именно, попугаях? Под иксами всё глючит и тормозит, работает кое как без половины функциональности. Баги 6 кутей гораздо жёсче проявляются под иксами тоже (к примеру невозможность использовать таск-менеджер, когда какой-нибудь хромиум с кучей аргументов запущен). Никакие баги при работе через xwayland пока не обнаружил, почили ускорение уже давно и даже vdpau работает.
что глючит и тормозит? что за чушь тут написана?
С момента выхода 555 драйвера как раз и сижу только под вейлендом в гноме со своей 1080. Все работает как по маслу, наконец-то можно подключить несколько мониторов с разной герцовкой и пользоваться окружением без рывков и тиринга.
> наконец-то можно подключить несколько мониторов с разной герцовкой
> и пользоваться окружением без рывков и тиринга.Сейчас придет Скалнетушка и расскажет тебе, что нет там никакого тиринга, что это все можно было сделать и на иксах.
И вообще разная частота мониторов не нужна. И больше одного монитора ваще нинунжа))
В kwin wayland на открытых дровах в арче все еще есть тиринг, вроде это как то связано с частотой обновления, но в целом более менее юзабельно (на иксах проблем нет, вот только теперь в плазме с иксами проблемы). Хорошая работа, нвидия, опен соурс камюнити радуется, всё вынесли в проприетарный модуль, можно продолжать захватывать мир!
Линус своим пальцем конечно указал правильный путь. Но не подсказал точный маршрут. Так что это будет ещё долго продолжаться.
вас заставляют покупать nvidia и орать как якобы ничего не работает в недоделанном вейланде, да?
> вас заставляют покупать nvidiaЕсли например, надо с помощью ИИ делать генерацию изображений. Не буду уточнять каких и чем именно. Тут я одно слово напишу - сразу под удаление.
То выбора под линуксами кроме Nvidia нет.
PS: сам на macOS этим занимаюсь с ИИ чипом от Apple.
Там амд в Ryzen 9000 обещает 55tflops float16 без задействования видеокарты вообще, и это больше, чем у rtx4080.
> Там амд в Ryzen 9000 обещает 55tflops float16 без задействования видеокарты вообще,
> и это больше, чем у rtx4080.Обещают… Так у nvidia на тензорных ядрах 1513 tflops float16 в прошлогодних картах (вроде 3958 в сетапах с 2 картами), на которых она совершенно озолотилась, ты думаешь, 55 хватит? обычный fp32 51tflops (134). Но, тебя же интересуют тензорные ядра? 8к терафлопсов на фп8. С одной стороны, дешёвые ядра без высокой цены отправки данных в них, это может оказаться немного полезным в некоторых применениях, но, с другой, похоже на очередной бессмысленный и беспощадный маркетинг, ещё ничего конкурентоспособного они не смогли предложить.
> Но, тебя же интересуют тензорные ядра?int8 для генерации картинок не годятся - качество сильно плохое выходит, так что нет, не интересуют. Да и не 8к их там, а гораздо меньше. Amd сделала гениальную вещь - блочный fp16 c общей экспонентой на блок почти со скоростью int8. Качество генерируемых картинок на глаз не отличимо от настоящего fp16.
как же ты не понимаешь что АМД - это маленьнкая независимая инди компания и на рынке она совсем недавнои они стараются
а вот интел вместе с нвидией сразу вдвоем против одной АМД!!!
если мы ее не поддержим то произойдет монополия и капитализм победит весь опенсорц!
Если я правильно понял, то проприетарный драйвер они попросту перетащили в проприетарную прошивку дополнительного микропроцессора на видеокарте. А в ядре осталась открытая прокладка. Дрова к железке как были закрытые так фактически ими и остались, разве что из ядра вынесли в железо. В общем, нвидия показала линусу куда ему засунуть свой палец.
Так во многих устройствах есть внутри фирмвари, в этом нет ничего плохого.Пускай теперь софт не может управлять некоторыми низкоуровневыми функциями (А нужно ли это ему? Раз смогли убрать - значит не особо), главное то что теперь софт хотя бы может с устройством в целом работать наконец.
Что тут действительно плохо - так это то что юзерспейс часть всё ещё закрыта.
> Так во многих устройствах есть внутри фирмвари, в этом нет ничего плохого.
> Что тут действительно плохо - так это то что юзерспейс часть всё ещё закрыта.Да, вобщем-то, ничто не мешает сторонним разработчикам выкинуть закрытую юзерспейсную часть и заменить все это открытым стеком из Месы.
Cuda, при этом, конечно отвалится. Но она и не всем нужна.
Вроде уже сделали такие дрова. Новость про них была на Опеннете.
Nova, чтоль?
Они там где-то на стадии продумывания.
Там новость скорее была о том, что Nvidia рассматривает способы поддержки KMD в линусе, и заодно говорили про отделение DRM в юзерспейс.
Но и то это было в ключе "это требуется нашим партнёрам для работы с виртуальными машинами на удалёнке", просто так получается, что хорошо и для Nova, поэтому "принимайте наши правки и давайте дружить"
Ты помнишь что такое win-принтер и win-сканер, Аноним?
Они заново переписали логику на Ада и запустили её в ОС видеокарты, сделав её недоступной для вмешательства пользователей. Проприетарные библиотеки остаются проприетарными. А вот лицензированный код для hdmi теперь будет крутиться как у амд, на видеокарте.
Невидия не нужна. Пусть сами покупают свои желёзки с кривыми дровами, так ещё и (по факту) закрытые
Драйвера то открытые. Но таковыми они стали потому что ненавидия влепила чип с зондом в котором крутится закрытый код. А дрова лишь интерфейс для взаимодействия с фирмварей.
таковыми они стали потому что у невидии не было выбора: https://www.opennet.me/opennews/art.shtml?num=56789
Чушь, с тех пор уже два года прошло и под винду дрова не открытые
Ну, будем радоваться только когда будет что то типа github.com/nvidia/RTX-**** в природе.
Чтобы Торвальдс еще был доволен, а его тяжело в чём то переубедить. А так вообще Нвидия
в правильном направлении, зачем им проприетарщина в дровах, когда будущее в ИИ, а сама
компания перевалила за Триллионы баксов. Да, триллионы. Это мильён мильёнов.
> компания перевалила за Триллионы баксов. Да, триллионы. Это мильён мильёнов.что ж тогда мильярд?!
Тыща мыльёнаф.
"из драйвера на уровень проприетарной прошивки"
АХАХАХАХАХА, а фанфар то сколько было
> "из драйвера на уровень проприетарной прошивки"А сейчас все устройства такие. Везде внутри блобы крутятся.
Хоть Wi-Fi адаптеры. Хоть материнки. Хоть видеокарты. Везде они есть.У АМД последние без блобов были Поларисы. А это уже древность как Паскали.
У Интела тоже давно блобы на видео. После Хасвелов.Это тренд, который уже не изменить
А можно этот опенсурс на виндовс скомпилировать ?
В WSL2, наверное, можно.
Эксперты хакерньюс еще 7 месяцев назад предупреждали:https://news.ycombinator.com/item?id=38418278
Это просто результат их истории. У них были профессиональные графические карты («Nvidia Quadro»), использующие точно такие же чипы, как и их потребительские графические карты.
BIOS этих карт был другим, что включало дополнительные функции. Люди, желающие получить эти функции дешевле, покупали потребительские графические карты и прошивали соответствующий BIOS Quadro на них. Это прекрасно работало.
Естественно, Nvidia была недовольна такими «потерянными продажами», поэтому начала играть в кошки-мышки, чтобы остановить перепрошику BIOS. Они добавляли резисторы на платы, чтобы указать, является ли карта Geforce или Quadro, и когда это быстро отреверсили, они начали придумывать другие способы.
Тем временем они не могли действительно открыть исходный код своих драйверов, потому что тогда люди увидели бы, какие программные проверки отличают «Geforce» от «Quadro». Это открыло бы возможности для разработки программных контрмер.
В последние несколько лет профессиональные карты и игровые карты используют разные чипы. Так что трюки с BIOS больше не актуальны.
Это означает, что теперь Nvidia может «безопасно» открыть исходный код своих драйверов.
Не все так просто. Функции отключают на отбраковках, каак правило. И даже если бы это был на 100% идентичный рабочий чип, то скорее всего разводка на плате не будет соответствовать его TDP.
Не только TDP. Но и количеству видео выходов, их типов и т.д. Колхоз этот может даже заработает, но нюансов и компромиссов примерно столько же, как в каком-нибудь хакинтоше.
> Функции отключают на отбраковках, каак правило.Функции обычно отключают для ранжирования по цене*. Ядра, когда последний раз была возможность их разлочить (феномы какие-то), тоже чаще оказывались отключены ради такого ранжирования (если не хватало отбраковки и было невыгодно плодить больше версий кристаллов), а не брака.
Но перепрошивка в Quadro на самом деле работала не очень или всё хуже и хуже. Из GTX 690 делали Quadro K5000 хотя бы чтобы она признавалась проф. драйверами с их дополнительными функциями, но писали, что Nvidia Mosaic не заводилась (да и хз, что вообще заводилось**). Это карты 2012 года, если халява и была, то раньше.
> то скорее всего разводка на плате не будет соответствовать его TDP
Только в другую сторону, обычно профессиональные версии карт жрут меньше. Вон 4090 - это урезанный кристалл AD102. Полные версии кристалла только в картах для не-игрунов и на треть холоднее.
* Intel прямо сейчас продаёт разблокировку блоков-ускоритей на серверных процессорах. Можно по подписке.
https://pubs.lenovo.com/sr630-v3/enable_intel_on_demand** сохранилась тема на 60 страниц. Там никто толком не разобрался, что работает и что нет. Всем нравилась движуха. "Прибыль? Прибыль... хрен ее знает, но оборот бешеный".
https://www.eevblog.com/forum/general-computing/hacking-nvid.../
Нужно срочно менять логотип, чтобы не путали компанию с открытыми драйверами и полностью закрытыми.
У Невидии в планах присвоить наработки NVK и выдать их за свой официальный открытый драйвер?
Копирасты просто так не открывают исходники. Видимо nouveau стала работать с графикой более качественно чем проприетарные драйвера.
> Видимо nouveau стала работать с графикой более качественно чем проприетарные драйвера.Пффф, если бы.
Они открыли "драйвер", потому что ничего полезного там нет - одни блобы.
А старый драйвер, где полезное есть - никто открывать не собирается.
> Копирасты просто так не открывают исходники. Видимо nouveau стала работать с графикой
> более качественно чем проприетарные драйвера.видимо? ты сам то в это веришь? nouvea вообще не работает, если использовать его как драйвер
Васян, ты сначала научись писать слово "nouveau" правильно!>nouvea вообще не работает, если использовать его как драйвер
В пределах твоей игрули может быть и так.
> Васян, ты сначала научись писать слово "nouveau" правильно!зачем? я записал в конфиге его в blacklist и отказываюсь мучать себя этим непроизносимым названием бесполезного недодрайвера
>>nouvea вообще не работает, если использовать его как драйвер
> В пределах твоей игрули может быть и так.а что ты предлагаешь, переключать дрова каждый раз, когда поиграть в игрули/куду?
Помню один анон мне в теме про релиз ядра 6.8 (там где сделали часть символов GPL_ONLY, чем сломали дрова нвидии), втирал что:
- невидию заставят открыть дрова
- ядерщики будут играть в очень жесткую игру
- мейнтейнеры граф. подсистемы чуть ли не боги, пригрозили DMCA takedown
- нвидия будет на коленях умолять их назад в мейнлайн взять
И что если оно будет не в мейнлайне, то все баги вроде "у юзера побилась ФС" будут просто отфутболивать))
opennet.ru/openforum/vsluhforumID3/133088.html#104А ведь все произошло как и преполагалось:
"Просто перенесут все что нужно в блобы."Ну чё, анон? Получил открытые дрова? Ахахаха!
Доволен? Тут тебе покушать принесли, братишка))
Кушай не обляпайся))
Да полюбому опять что-то придумают, чтоб выкосить их)
> втирал что ... невидию заставят открыть дроваИ всё-таки их заставили открыть дрова. Несколько дней назад была новость, что NVIDIA возглавила рейтинг самых болгатых компаний мира. Её капитализация теперь выше, чем у предыдущих лидеров, таких как SpaceX, Apple, Microsoft, Facebook. Причина - нейросети. Давинчи, ЧатДжиПиТи, Claude, СтейблДифьюжн, MidJourney, Luma Dream Machine... В настоящий момент, нейросети приносят своим создателям огромные деньги.
Поэтому NVIDIA заинтересована в том, чтобы их устройства работали под линуксом. Создание отдельного чипа под прошивку, это не для пользователей десткопа под линуксом, а для владельцев вычислительных кластеров. И кстати, разве в драйверах AMD прошивка не такая же проприетарная?
Мне кажется, что проприетарная прошивка не так страшно, как BIOS видеокарты, скомпилированный под x86. Из-за биоса мы не можем просто взять и вставить видеокарту в ARM, PowerPC или RISC-V. Тогда как фирмварь никак этому не препятствует.
P.S. Мне нравится то, что NVIDIA не относится к пользователю в духе "тебе это знать не нужно, ты этого всё равно не поймёшь". Наоборот, нам дают выбор, и это приятно. Казалось бы, если основной доход приносят владельцы вычислительных кластеров, то и сервис должен быть обращён к ним, а не к нам, верно? Однако приятно, что и нам сервис тоже оказывается.
Когда Valve выпускала Steam Deck, мне тоже нравилось, что нас не выставляют идиотами. Нам показали, как выглядит устройство разобранным. Нам рассказали, как установить Windows, если SteamOS не устраивает. Теперь сравните с отношением производителей устройств на базе Android. "Тебе сюда нельзя, это ты не отключишь, батарею не снимешь, стороннюю прошивку не установишь".
> И всё-таки их заставили открыть дрова.И?... В чем цель была? Дрова стали от этого более свободными?
Вангую, что в каждый новым поколение все больше и больше будет уезжать в SoC видяхи, а драйвер превратится в тонюсенькую открытую прослойку по трансляции вызовов ядра в запросы к блобу.
> Дрова стали от этого более свободными?Я считаю, что да. Пример - проект NVK, позволяющий запустить Vulkan на nouveau. Если проект "взлетит", мы можем получить полностью открытые драйверы, которые ничем не уступают закрытому. А то, что управление электропитанием при этом вынесено на отдельную микросхему - на мой взгляд, это не критично.
CUDA будет?
> CUDA будет?Вряд ли. OpenCL? Возможно. OpenCL уже есть в nouveau в виде Clover. Однако от OpenCL начинают отказываться в пользу вычислений на Vulkan.
> Однако от OpenCL начинают отказываться в пользу вычислений на Vulkan.Ну да ну да ты такой умный отказаться от инструкции которая VR360 и сидеть на 2D с х/пойми как это работает но это не 3D , знал бы ты ещё на сколько это влияет на скорость архивирования и даже внимание ! компиляции. Вы вообще в этом не шарабарите единственную графическую mesa которая реально перфомэнсе я видел только на каком то Ютубе у griggorii чего то там для версии убунту 22.04 на этом рук остальные драйвера либо в Легаси бивесах не работают либо дико тормозят.
> А то, что управление электропитанием при этом вынесено на отдельную микросхему - на мой взгляд, это не критично.Долго ржал. У Нвидии блоб размером мегабайт 30. Там не только управление питанием, целую ОС туда запихнуть можно при таком размере.
У АМД блоб в районе 100 килобайт. Там я еще могу поверить, что он только "управлением питанием" занимается.
> У Нвидии блоб размером мегабайт 30. Там не только управление питанием, целую ОС туда запихнуть можно при таком размере.Ну так не весь же в ПЗУ вынесли.
> Ну так не весь же в ПЗУ вынесли.Конечно, весь. Вся проприетарная часть ядерного драйвера теперь грузится в видеокарту и исполняется на внутреннем GSP (GPU System Processor).
В ядре осталась маленькая прослойка для трансляции вызовов.Теперь NVK без этого огромного пропиретарного блоба работать не сможет на новых картах.
Все что они могут, так это заменить проприетарную часть драйвера в юзерспейсе.Даже это будет большое достижение. Есть шанс, что NVK станет очень хорошим драйвером.
> сделали часть символов GPL_ONLY, чем сломали дрова нвидии
> "Просто перенесут все что нужно в блобы."А это не только Нвидии касается, а вообще всех производителей железа.
Нельзя насильно заставить открыть драйвера под GPL.
В драйверах может использоваться лицензированный код третьих компаний и вендор не может его перелицензировать.Путь Нвидии: что-то вынести в блоб, а что-то в юзерспейс. В ядре оставить маленькую прослойку, которую можно и открыть.
Просто по другому и нельзя было сделать.
NDA надо запретить и платить настоящим дебагерам правщикам кода , ты уверен что эти третьи компании не зашили тупо в чип чужую видео дровину mesa и тому подобное , а у настоящего инженеринга в итоге пустоты в карманах.
К сожалению, на линуксе нвидия амд не конкаррент.
Ну, хоть где-то. Хотя, это с ваших слов. Потому что не правда. На чём там крутится то, что они называют "ИИ"? Кто там на этом немерено обогатился? Под какими ОСями всё это крутится? Вывод за вами.
Отлично. Теперь я буду играть в "Марфа. Слёзы Королевства" свободно под Линукс. А, я и так в них под ним играю, но не свободно. Открытые дрова на Тегру будут, я надеюсь?
И кому это надо?
Все нормальные люди покупают АМД Радеоны!
Про лучики скоро все забудут как забыли про Шизикс и что тогда хуанг будет делать?
Я правильно понял что на ходовые затычки типа GT 710, GT 730 и GT 1030 (Их сейчас огромное количество в продаже) NVIDIA забила и скоро они нормально работать не смогут?