Компания Rad Hat начала работу над проектом Nova, развивающим новый открытый драйвер для GPU NVIDIA, в которых операции инициализации и управления GPU вынесены в прошивку и выполняются отдельным микроконтроллером GSP (GPU System Processor). Новый драйвер оформлен в виде модуля для ядра Linux и использует подсистему DRM (Direct Rendering Manager). Проект позиционируется как продолжение развитие драйвера Nouveau для GPU с GSP-прошивками, используемыми начиная с серии NVIDIA GeForce RTX 2000 на базе микроархитектуры Turing, и в долгосрочной перспективе может заменить Nouveau...Подробнее: https://www.opennet.dev/opennews/art.shtml?num=60821
Очередная демонстрация того, почему у nvidia столько довольных пользователей. Её видеокарты полноценно поддерживаются порядка 10 лет, в то время как "опенсорс" и его корпоративные разрабы из freedesktop вечно дропают всё "неудобное", но, при этом, не забывают максимально гадить в тапки.
Полноценно??
Абсолютно полноценно. Что новая карта у тебя, что старая, всё будет поддерживаться одинаково и не устареет через 2 года.
Мой Radeon 7770 из 2012 поддерживается актуальным драйвером amdgpu (хоть и с возможными оговорками). На ней даже Vulkan рабочий, позволяющий играть через dxvk и даже FSR 1.0 из патча для WINE я на ней запускал.Какая видеокарта у невидии из 2012 года поддерживается последним драйвером (на данный момент 550)? Эти ушлёпки даже для прошлой 3000 серии карт зарезали генерацию кадров в своём DLSS - про поддержку 600 серии из 2012 можно вообще не говорить, её nouveau лучше поддерживает.
> из 2012так речь про 10 лет
а какой сейчас год? 24й
какой год был 10 лет назад? 2014й
поэтому и сравнивай актуальные (актуальные, лол))) видяхи
>так речь про 10 летты блаблабол. 710-е семейство затычек (чисто ради hdmi) ещё с прилавков не успело уйти, а уже в утиль отправили. и работало бажно. а нуво вообще околоникак.
А что не так с gt710? Драйвер обновлялся месяц назад, вулкан есть. Только вяленый через eglstreams, а это значит, работает только в программах на Qt и сомневаюсь про полноценную поддержку xwayland.
>А что не так с gt710? Драйвер обновлялся месяц назадОхладите фанбойствование... её уже больше года назад в legacy-дрова выкинули. если сидеть на предпоследнем дебиане, то да, наверное не так всё тухло и даже баги в ядро+драйвер (которые нвидиоты по полгода-году чинят) тебя стороной обойдут. ссылки искать лень... я зарекся, hdmi-затычка должна быть от ынтеля и баста.
Я так на fglrx сидел на позапрошлогодних иксах чтобы opencl и игр не лишаться. Вообще никаких проблем, вспомнил только через несколько лет, что там иксы не обновляются. А с ядром тогда таких проблем не было, потом патчить приходилось. Никаких проблем с софтом.
Сначала говорим про утиль и тут же про legacy дрова. Алоэ, легаси ветка когда перестала быть официальной? Она точно так же работает, только новые возможности в нее очевидно почти не попадают. В чем проблема?
> Сначала говорим про утиль и тут же про legacy дрова. Алоэ, легаси
> ветка когда перестала быть официальной? Она точно так же работает, только
> новые возможности в нее очевидно почти не попадают. В чем проблема?очевидно, блобы в /lib/firmware куда любимее чем pacman install nvidia-drivers. :-D
>Алоэ, легаси ветка когда перестала быть официальнойты упрлс? ) покупаешь в магазине новую нвидиото-карту, а её через полгода переводят в некий очень актуальный и поддерживаемый дривер под названием legacy. ничего подозрительного....
как уже писл раньше, если ОС не обновлять, то с этим жить можно. но это ущемление твоей свободы
Твой радеон. А вот соседний нет. То же касается и интела. При этом, maxwell gen1 до сих пор поддерживается полноценно и без оговорок. И cuda работает, и opencl, и vulkan, и optix в блендере, и вообще всё, даже вяленый. Если чего-то нет в железе, тут извините, дополнительные блоки не нарисовать и amdgpu на это тоже не способен.>зарезали генерацию кадров
Без сомнения необходимая и востребованная технология, наверное, не хватает аппаратных блоков для обеспечения достаточного уровня качества в текущей итерации.
> не хватает аппаратных блоков для обеспечения достаточного уровня качества в текущей итерацииТак и есть, у Ловлейс есть аппаратные блоки для этого, без них на Амперах и Тьюрингах происходит страшный статтеринг
https://www.reddit.com/r/pcmasterrace/comments/176y9yw/dlss_.../
> статтеринг
> Статтеринг. (от англ. stuttering – «заикание»)Замочека https://youtu.be/sAKxvwkieGo 🙂
Чушь собачья. Рисовать междукадрие научились уже очень давно. Без всяких «специализированных» блоков.
Ну, вон, говорят, производительности всё же не хватает для текущей итерации технологии. Когда-то может и хватало, но качество повышается, глупо это отрицать. Это вроде как технология ускорения путём отказа от реальных вычислений, но чтобы крутить нейронки на много кадров сразу тоже нужны значительные ресурсы. И без «специализированных» блоков придётся отнимать вычислительную мощность от реальных вычислений, а подобное разделение не очень хорошо работает в силу архитектуры видеокарт.
> Ну, вон, говорят, производительности всё же не хватает для текущей итерации технологии.
> Когда-то может и хватало, но качество повышается, глупо это отрицать. Это
> вроде как технология ускорения путём отказа от реальных вычислений, но чтобы
> крутить нейронки на много кадров сразу тоже нужны значительные ресурсы. И
> без «специализированных» блоков придётся отнимать вычислительную мощность
> от реальных вычислений, а подобное разделение не очень хорошо работает в
> силу архитектуры видеокарт.Расчёт междукадриев был довольно давно, использовалось это в видео (вот чем именно считалось не скажу, но суть абсолютно та же). К этому прибегнули из-за невохможности наращивать мощь, никакие новые техпроцессы и увеличенное энергопотребление больше не помогали. Кстати, всякие DLSS и аналоги тоже не от хорошей жизни начали внедрять.
Нет, SVP выглядит очень стрёмно и адово грузит, кроме того ОЧЕНЬ ресурсоёмко, емнип там cuda без нейронок. Тут же идея получить "бесплатную" качественную интерполяцию, натренировав предварительно модель на каждую игру в отдельности.
> Нет, SVP выглядит очень стрёмно и адово грузит, кроме того ОЧЕНЬ ресурсоёмко,
> емнип там cuda без нейронок. Тут же идея получить "бесплатную" качественную
> интерполяцию, натренировав предварительно модель на каждую игру в отдельности.SVP было сделано для всех. Неоткуда там CUDA взяться, потому-что на радеонах работало издавна. Но расчёт междукадриев был и без SVP.
https://dtf.ru/u/52802-nicromarti/2184383-amd-fluid-motion-f...
Там было opencl, но потом перешли на cuda.
> Там было opencl, но потом перешли на cuda.А сейчас я на своём рейдоне не смогу запустить или смогу?
> Нет, SVP выглядит очень стрёмно и адово грузит, кроме того ОЧЕНЬ ресурсоёмко,
> емнип там cuda без нейронок. Тут же идея получить "бесплатную" качественную
> интерполяцию, натренировав предварительно модель на каждую игру в отдельности.Ах, да, ещё надо напомнить, что эту самую интерполяцию рисовать умели делать уже лет 10 назад, а то и больше, телевизоры в реальном времени с любого потока (Самсонъ и Пхилипс, насколько помню). Так что… прагрес от «Зависти» в этом отношении виден чуть более, чем никак, если изучать историю вопроса, а не слепо верить их маркетологическим лозунгам.
Качество этой интерполяции конечно… Ну и в телеках для этого специальный dsp-чип стоит, его уровень может быть всяким. В ПК такого нет.
> Качество этой интерполяции конечно… Ну и в телеках для этого специальный dsp-чип
> стоит, его уровень может быть всяким. В ПК такого нет.Сколько лет прошло, а прагрес сдвинулся только чуть…
>Какая видеокарта у невидии из 2012 года поддерживается последним драйверомЗачем тебе видеокарта 2012 года? Любая современная встройка интела в десятки раз мощнее.
Так если у него видеокарта 2012 года, то вероятно, и проц оттуда же.
7970 против любой встройки современной… В десятки раз(!!!), щаз же! 🫨
Свидетель свитова прагреса, не иначе.
Брехня, встройка даже с разгоном не близко. 7770 околотоп со своей набортной памятью. Интеловские дрова с трансляцией директхэ в булкан еще не слишком эффективны и потому Arc A770 тягается с картами среднего сегмента имея все признаки топа.
Да, что-то я загнул, конечно )))
> Любая современная встройка интела в десятки раз мощнее.Все встройки это хлам за оверпрайс, раньше они хотя бы даром шли в комплекте с материнской платой, а сейчас за них денег хотят больших.
По тестам Geekbench 5 OpenCL
30255 попугаев Radeon 780M топовая встройка
34541 попугай AMD Radeon HD 7970 видеокарта из 2012 года
60866 попугаев NVIDIA GeForce RTX 3050 OEM видеокарта 2022 года
>> Любая современная встройка интела в десятки раз мощнее.
> Все встройки это хлам за оверпрайс, раньше они хотя бы даром шли
> в комплекте с материнской платой, а сейчас за них денег хотят
> больших.
> По тестам Geekbench 5 OpenCL
> 30255 попугаев Radeon 780M топовая встройка
> 34541 попугай AMD Radeon HD 7970 видеокарта из 2012 года
> 60866 попугаев NVIDIA GeForce RTX 3050 OEM видеокарта 2022 годаК слову, графика не сводится только к производительности шейдеров, ROP и TMU от роста шейдеров сами собой не зарождаются, как плесень от сырости. А без них шейдерная моща будет как мёртвому припарка.
У меня аналогичная видеокарта ASUS AMD Radeon HD 7700.
Маленькая, не шумная, надёжная, с некоторым танцем (amdgpu.si_support=1 radeon.si_support=0) полноценно поддерживает вулкан, в отличие от некоторых интеловский встроек, с которыми dolphin-emu отказывается работать.
Для проца AMD Phenom II X4 945 и материнкой c PCIE 1-ого поколения она идеальна, ставить что-то мощнее нерационально.
>и даже FSR 1.0 WINE я на ней запускалвот это да!
У меня какая-то с чипом HD2600, купленная в 2008. Plasma 5 на ней работает и жрать не просит.
Если говорить о сколько-нибудь полноценной работе, то надо смотреть на AMDGPU PRO (нынешний проприетарный драйвер), а HD2600 поддерживается fglrx, удачи его завести на текущем ядре.
Драйвер radeon стабилен как танк и по производительности лучше. OpenGL 4.5 должен быть с частичной реализацией 4.6.
Кроме того это карты Ati, а бочку катят зеленые фаны на AMD.
Opencl нет скорее всего, его даже на современных картах нет. Не знаю, что там по производительности и поддержке opengl, fglrx всегда был кривой, но игры с ним работали куда лучше. AMD купил ATI в 2006, если что, но ещё много лет после этого продолжал продавать карты от лица AMD. А последняя версия fglrx не так давно вышла.
Opencl прикручивается методом кидания оного от проприетарного драйвера к открытому, который прекрасно работает.
> Plasma 5 на ней работаетИменно работает или просто картинку на экран выводит?
Аппаратное декодирование работает?
В HD есть аппаратное ускорение и оно конечно работает.
>про поддержку 600 серии из 2012 можно вообще не говорить, её nouveau лучше поддерживаетШта? 470 месяц назад обновился, это ветка прошлого года. Там есть абсолютно всё кроме вяленого через mesa и пары новейших фич вулкана, которые вряд ли понадобятся на карте 2012 года. Ну и это не значит что перестанет работать, практически весь стек технологий всё ещё поддерживает эту ветку драйвера и продолжит в будущем.
> практически весь стек технологий всё ещё поддерживает эту ветку драйвера и продолжит в будущем.Продолжит он столько сколько это захочет нвидия делать. И если она покажет фигу - фиг вы это оспорите.
>> практически весь стек технологий всё ещё поддерживает эту ветку драйвера и продолжит в будущем.
> Продолжит он столько сколько это захочет нвидия делать. И если она покажет
> фигу - фиг вы это оспорите.выпилят в следующей версии ядра нуово - и фиг вы это оспорите. выпилит амд поддержку из амдгпу каких-то дров - и фиг вы это оспорите.
> выпилят в следующей версии ядра нуово - и фиг вы это оспорите.
> выпилит амд поддержку из амдгпу каких-то дров - и фиг вы это оспорите.Там видите ли участники сообщества набраны над этим работать - и они такое делать не будут. Напротив - в AMDGPU даже поддержку старых GCN 1.0 добавили. Они конечно GCN по core - но для драйвера еще важно uncore, а они - HD6900-like в этом смысле.
Ибо стратегию тик-так умеет не только интел. У амд это соответственно так: раз релизят новое core, два - новое uncore. Поэтому кто старый и кто новый вопрос довольно интересный.
>> выпилят в следующей версии ядра нуово - и фиг вы это оспорите.
>> выпилит амд поддержку из амдгпу каких-то дров - и фиг вы это оспорите.
> Там видите ли участники сообщества набраны над этим работать - и они
> такое делать не будут.лол. уже https://www.phoronix.com/news/Linux-Drop-Old-UMS-DRM-Infra
> Напротив - в AMDGPU даже
не могут пофиксить баги, чтоб карта не занимала зря место
https://gitlab.freedesktop.org/drm/amd/-/issues/2113
с ядер 5.х по 6.х. Пардон, но я хз кому нужны такие карты.
> лол. уже https://www.phoronix.com/news/Linux-Drop-Old-UMS-DRM-InfraЧтобы трындеть по теме - в ней надо разбираться. Не, просто нагуглить якобы-подходящий линк не очень хорошо работает, можно и обломаться. FYI: UMS DRM - абсолютно окаменелый интерфейс, который минимально живые дрова как раз давно выбросили нахрен.
> ATI Rage 128, 3Dfx, S3 Savage, Intel 810, SiS, VIA and Matrox MGA DRM
И от амд тут что? Целый ATI Rage 128 чтоли? Это ужасная потеря. А им в 2024 кто-то реально пользовался? Учитывая что это fixed-function HW, умеющий только GL 1.0 - который никакой актуальный софт давно не использует - кто и что с этим Rage сейчас делать мог бы вообще?
Как абсолютный максимум некромансии я встречал дрищей с Radeon 9200 - и это ископаемое даже до сих пор работало. Насколько это может работать, ибо с современными графическими апи там швах на уровне фич железа, так им что только ютуб смотреть и можно. А более-менее современные этому хламу жыфорсы - разве что нувой цеплять, только он кривой что капец. А блобов на это все уже сто лет никто не делает так то. И вот видяха уже апи то современные не тянет, софта нет, но по дровам ЭТО - все еще заводится в СОВРЕМЕННОМ АКТУАЛЬНОМ ДИСТРО. Вам мало? Куда уж древнее?!
> не могут пофиксить баги, чтоб карта не занимала зря место
> https://gitlab.freedesktop.org/drm/amd/-/issues/2113
> с ядер 5.х по 6.х. Пардон, но я хз кому нужны такие карты.Можно подумать нвидия такая офигенная и у нее багов нет. Я помню как минимум 2 клевых бага.
1) Энная версия дров супер-корпы могла ВЫРУБИТЬ ВЕНТИЛЬ на видяхе - и спалить ее тем самым нахрен. Ну так, мелочи по сравнению с вон тем, ога.
2) Более недавно зеленый блоб отметился фееричным разрушением памяти - и выносом файлух вон тем неудачникам. Тоже неплохо так слот заняли. Правда вон те лохи что-то кипишевали, о такой фиче видяхи их кажется не предупредили.
> Чтобы трындеть по теме - в ней надо разбираться.лол, узнаю юзера.
всё твоё сообщение можно свести к "да удалили, так ну и правильно сделали".
Не возражаю. Правильно сделали. Можно только вопрос уточняющий? Это сообщество удалило или корпы?
> про поддержку 600 серии из 2012 можно вообще не говорить, её nouveau лучше поддерживает.Неа, GTX 650 Ti на nouveau околонеюзабельно, раз в пару часов работы крашит иксы, на nvidia драйверах не припомню когда последний раз сталкивался с серьезными проблемами, а так да, драйвера 470хх, что поделать.
Несколько лет назад активно юзал nouveau на GTX760 на десктопе, думаю там примерно тот же кусок драйвера (для кеплера). Утечек и крашей как-то не припомню, много гамал в HL2 и portal. Сейчас тоже юзаю, но через DRI_PRIME=1 (картинку выводит встройка интела, 3D при желании через nouveau, частоты подкручиваю вручную через sysfs).
Попробуй сменить nouveau на modesetting (или наоборот - modesetting на nouveau).P.S. Хотя утечки и краши вещь относительная. Десктоп стабильно раз в сутки перегружается. Сервак стоит 24x7 и там много чего вылезает. Но обычно в пределах недели, а не пара часов.
> Абсолютно полноценно. Что новая карта у тебя, что старая, всё будет
> поддерживаться одинаково и не устареет через 2 года.Как это согласуется с
1) Кучей багов, вплоть до локапов при переключении в консоль?
2) С тем что как раз поддержку старых GPU задропали нафиг - тогда как у AMD поддерживается даже древности типа r300 какого-нибудь, который даже не затычка для слота, а затычка для слота в квадрате.
> 1) Кучей багов, вплоть до локапов при переключении в консоль?эээ я прекрасно знаю о проблемах блоба, ну, переключение в консоль не работает значит не переключайся (но это было давно и неправда, прямо сейчас полноценный драйвер консоли есть)
> 2) С тем что как раз поддержку старых GPU задропали нафигне то чтобы, полная поддержка всего на 10 летних картах
> тогда как у AMD поддерживается даже древности типа r300 какого-нибудь, которыйэто вероятно ложь, amdgpu-pro поддерживается только очень ограниченный перечень карт, и этот драйвер необходим для rocm и того же блендера (да и для opencl тоже насколько я понимаю, но поддержка opencl в любом случае будет хуже чем у nvidia)
> работает значит не переключайся (но это было давно и неправда, прямо
> сейчас полноценный драйвер консоли есть)Это не "драйвер консоли" а нормальная реализация DRM/KMS. Которая не встает колом когда вот именно "kernel modesetting" потребовался вдруг. И он еще может потребоваться в ряде иных случаев. Например KDB. Или panic. В этих случаях блоб как, нормально работает?
И задержка на месяцы с выходом блоба - связана с тем что в майнлайне их не лю, и кроме фака в камеру - технические факи вкатили, GPL_ONLY на вон те символы подсистем ядра, спецом от блобов. И в 6.7 проверку что модуль импортящий функции GPLный, от умников с "GPL condom". С обещанием DMCA takedown если попробуют обойти "механизм технических ограничений". Оказывается, линукс девы себя вторым сортом считать отказываются - и могут юзать все те же тулсы что и остальные :)
> не то чтобы, полная поддержка всего на 10 летних картах
А например гефорс старинный оно - не знает. Да, ему более 10 лет. Но современный ему Radeon почему-то пашет с MESA и ядерными дровами. А нуво дико кривая штука.
> это вероятно ложь, amdgpu-pro поддерживается только очень ограниченный перечень карт,
Pro? Возможно. А им кто-то пользуется вообще? AMD круты тем что сделали модуль AMDGPU (окультурив Radeon) - и он подложка и MESA, и -Pro так то. И _это_ цепляет "все что GCN". Даже 1.0 запилили со временем. Ну и MESA со всем этим тоже работает. И таки - лучше чем -Pro, и radv как драйвер вулкана - шустрее проприетарного. А для более старых AMDшек - Radeon их цеплет. И довольно древние HD5000 все еще нехило саппортятся, вплоть до GL 4.6 со всеми наворотами. А для 6000 серии вроде кто-то даже вулкан пытается.
А реально работают - даже Radeon 9200 и x1300, недавно проверил на паре антиков с таким. Не то чтобы это сильно крутые видяхи но ютуб позырить - хватит. А без акселерации вывода - сами понимаете какой перфоманс через VESA BIOS какойнить.
> и этот драйвер необходим для rocm и того же блендера (да
> и для opencl тоже насколько я понимаю, но поддержка opencl в
> любом случае будет хуже чем у nvidia)Тем не менее - древние нвидии лишенные благодати вообще в полном ауте оказываются. А амжхи... их с Pro и так почти никто не юзал в общем случае. А зачем? Они и саппортятся в "гибридном" режиме - наполовину народом, наполовину AMD немеряно времени. У амд фокус постепенно смещается ессно на новые, но крутые проблемы те девы и для старых починят, и патчи от all'а примут.
...а с нвидией это все не очень работало за отсуствтием спеков и некооперативности нвидии, поэтому там история другая.
>нормальная реализация DRM/KMSТам тысячу лет, а вот тот же simplefb лично у меня вечно не работал, только efifb. Тупо экран выключался, и это его сделали дефолтом. Теперь, впрочем, будет выключаться при удалении блоба. Да и в целом много багов было, экран выключается и всё. По вине линукса надо заметить.
>>нормальная реализация DRM/KMS
> Там тысячу лет,И все тысячу она кривая и глюкавая что капец, так что шаг в сторону и вон там господа ноют про локапы, факапы и много чего еще интересного - вплоть до разрушения системной памяти, и дальше что угодно - вплоть до выносов ФС нахрен.
> а вот тот же simplefb лично у меня вечно не работал, только efifb. Тупо
> экран выключался,Там по идее simpledrmfb с DRM должен быть. А simplefb - для железок без DRM драйвера, где фирмвар сетапнул под свои нужды какой-то фреймбуфер простой, это больше для эмбедовки актуально.
> целом много багов было, экран выключается и всё.
Да оно и сейчас осталось - недавно это УГ прославилось выносом юзерям файлух, например.
> По вине линукса надо заметить.
Все вопросы нвидии почему она думает что что-то там в своей норке пилить - работоспособная тема для линуха. Им ЭТО никто никогда не обещал. И прямым текстом сказали обратное. Если они жирафы - пусть страдают, вместе со своими кастомерами. Всем похрен.
На полноценных системах всё поддерживается полноценно.
Даже на неполноценных системах есть вполне хороший проприетарный драйвер.
А вот открытый дравер... это даже драйвером сложно назвать.
> На полноценных системах всё поддерживается полноценно.только не нвидией. "на тебе драйвер под XP и отстань уже - у нас такое уже не носют!"
(в принципе, и с линуксом то же самое - скачать можешь, собрать нет - потому что хрен ты где найдешь то ведро 2.6 и еще и тот самый gcc - они были пережитком еще когда тот архивчик был свежим)> А вот открытый дравер... это даже драйвером сложно назвать.
работает, картинку видно. Для шибкопродвинутых есть закрытый, на все три с половиной видимокарты выпущенные в позапрошлом году и позже.
> работает, картинку видноВот вы сейчас очень точено его работу описали.
Нвидия давно бросила поддержу скажем 200-й серии. Собрать блоб на них тот еще гемор, а вот радеоны пашут и крайне стабильны.
Столько "довольных" пользователей, что пришлось писать новый драйвер.
Справедливости ради, nouveau действительно нужно переписывать. А большей части функциональности в нём никогда и не было. Но, к его чести, он достаточно неплохо поддерживает карты и поколения тесла и более современные. Я гонял бенчмарки на максвеле, производительность nouveau была около 5-30% ниже нормального драйвера.
И чем мощнее карта, тем разница производительности между проприетарным и открытым стремится к ∞
Там вроде прикручивают повышение частот к современным картам. Не будет стремиться, когда сделают.
Разве вся эта возня с опенсорсными зелёными драйверами не из-за того, что проприетарным драйвером Нвидии много кто недоволен, а открытый драйвер она не пилит?
Это миф, регулярно вносит заметный вклад в опенсорсный стек и в том числе в опенсорсный драйвер. Да и кто недоволен? Опенсорсный зелёный драйвер никогда и никем не считался драйвером, не работал корректно, и всегда ничего не умел.А вот что является истиной, так это то, что это достаточно грязная конкурентная борьба аутсайдеров с монополистом.
> Это миф...Пользователи Wayland: конечно, конечно, миф ...
> Да и кто недоволен?
Cовременный дистр: вот два стула, на одном Wayland, на другом проприетарный драйвер твоей видяхи.
пользователи вафлянда должны страдать.
> пользователи вафлянда должны страдать.А других через несколько лет уже и не останется. Ты же не сможешь майнтайнить Xorg сам, так? Или ты таки решил попытаться этот mission impossible? Так то 314датый способ срубить сотни респектов, и даже не только на опеннете. Но денег все же не дадут, имхо. А жизнь в ж@пе не позволит тебе провести краудфандинг.
Nvidia 730m в моем Thinkpad t440p вышла как раз 10 лет и 2 месяца назад.
Последний драйвер для этой видеокарты - 390. Уже зажатый 391 драйвер вышел в 2018 году.
Так это было старое поколение карт 12 года, оно не далеко от ферми ушло и объективные причины дропнуть ферми 10 года были. Кстати, всё кроме вулкана и вяленого на них поддерживаться должно, прошлое обновление этой ветки драйвера на линуксе было в 22 году (а вендузятникам не привыкать).
В интернете написано карточка вышла в 2013 году.В этом же году, если не ошибаюсь, у intel и amd были hd 4000 и hd 7000 соответственно.
Что у них с поддержкой Wayland? В интернетах пишут, что работает.
Прекрасно работают и 6000-е и переименованные в r5 230 карточки и sway на них не падает.
> В интернете написано карточка вышла в 2013 году.
> В этом же году, если не ошибаюсь, у intel и amd были
> hd 4000 и hd 7000 соответственно.
> Что у них с поддержкой Wayland? В интернетах пишут, что работает.Никаких проблем быть не должно, это современные (в плане DRM/KMS/etc) драйвера с ускорением.
А где-то даже пишут, что в 2014 году
> А где-то даже пишут, что в 2014 годуМобильные карты это всегда что-то особенное. Та же gt740 на том же (?) чипе только в прошлом году была дропнута и драйвер месяц назад обновился. Там есть примерно всё, кроме вейланда через mesa.
Кстати, обычно это переименованное прошлое поколение, если там ферми, то логично, что дропнули вместе с ферми. Странно только чип кеплеровский, впрочем, nvidia уже меняла продукты нижнего уровня на ухудшенную версию, собираемую из залежей мусора на складах, и сохраняла им одно и то же название.
Я недовольный пользователь.
4090 хороша по производительности, но абсолютно все фичи выглядят недоделками.
Бедолага, как тебя угораздило взять карточку, которая чаще всего нагружена лишь наполовину?
Это же монтажникам видео только нужно чтобы длинные ролики монтировать.
Дыыыыы?
У меня она в 8K игрухи уже не тянет. В 4K - норм, самое оно.
Тебя видимо обманывает мониторинг загрузки. Если там показывает занятость это может быть как с центральным процессором - ожидание, а не реальный выхлоп. Если в случае с центральным процессором все решается разгоном памяти, то в случае с видеокартой стоит вопрос целесообразности 8К. Если на 27" в 4К можно в упор сидеть это не значит что рендеринга 2560х1440 недостаточно. 4К актуален для умных телевизоров с диагональю около 50"+. Но тут уже и не приходится сидеть в упор.
А нафига карта, которая показывает загрузку, но используется наполовину мне непонятно. Вот возьмешь с 3д кешем проц - будет прирост. Потому что движки убогие напрочь, кроме может ID Tech. Там сразу вдвое-втрое вырастает фпс, но там и ненужна такая карта для особо горбатого индусского кода. Оптимизаций под разрешение никто не делает для 0,1% пользователей высоких разрешений. Это чисто рабочая карта на ближайшие годы, ведь на умном телек и 1080р смотрится очень хорошо. Он тоже улучшает изображение. Код в играх гуано, понимаешь?
> 4К актуален для умных телевизоров с диагональю около 50"+У меня 8K телевизор с диагональю около 65" и три 4K-дисплея. Из них 2 калиброванных проарта.
> может быть как с центральным процессором - ожидание, а не реальный выхлоп
> все решается разгоном памятиДальше можно не продолжать, всё понятно.
Тебе явно непонятно что такое простой ядер в ожидании данных. По сути все супер пупер ядра превращаются в 486-й проц и видеокарта также топчется.
Откуда у таких как ты дорогая электроника это вопрос к стадам видимо обманутых твоей понтовостью без вникания в тему.
Сиди дальше на коре2 и изучай железо.
Сижу на 12900к и даже не собираюсь упарываться по ненужностям.
То что ты ради игорей взял топ это твои заморочки.
А ты хоть 16К экран заведи разрешение текстур останется прежним.
Ты правда думал что везде вот сейчас 8К текстуры завезут?
Смешной человек, мне правда ненужен кипятильник или доказывание кому-то что сидеть в ловушке из заморочек это вот круто.
Мне быть чистым потребителем контента ненужно чтобы быть человеком, особенно помножив это на самообман нужности карточек, которые невостребованы в моих задачах.
А то гляди, без 96 ядерного тредриппера твои комп унылое гуано - твоя же логика.
> А ты хоть 16К экран заведи разрешение текстур останется прежним.Вблизи понятно. А что там на дистанции?
Ладно, хрен с ней даже с дистанцией. Что с тонкими линиями?
Откуда мне знать что за тонкие линии тебя беспокоят.
Если твоя душевная организация цепляется за тонкие линии, то причем тут разрешение текстур, да?
Ты не видишь взаимосвязи между разрешением текстур и монитора?
Можешь запустить игру постарше чтоб нагляднее было. Хоть там 1000+ кадров будет она не преобразует тукстуры в линии. Компьютер оперирует полигонами, либо 2д текстурами на 3д модели.
Тебя не учили выражаться яснее? Ну внезапно линии вокруг которых как я понял все вертится это текстура, я правильно понимаю? Ну и раз это текстура, то у нее бывает парамется плотности пикселей? Когда задашь себе вопрос а надо ли говорить о таком без понимания построения изображения тогда может научишься внятно изъясняться, или ты там лохотроном зарабатываешь? Мне вот все равно какую муть ты пытаешься изобразить якобы конкретикой такого плана. Ты неспособен как я понял к внятной дискуссии с аргументацией.
Тебя не учили чуть-чуть понимать в том, о чём говоришь?
Тонкие линии? Чувак, это важно для шрифтов. Сглаживание использует субпиксели и без того и в 90-х даже разрешении 640х480 квадратов не было при 16 кратном сглаживании.
Если ты смотришь на текстуру с разрешением пускай 4К в 8К разрешении в упор тебе разрешение мало что даст. Сидеть в метре от 65" это слегка перебор, но можно если тебя прет.
Просто цена и целесообразность весьма расходятся.
Ну какие тонкие линии у движущихся объектов?
Да, все круто, но это эфыект плацебо если ты потыкаешь настройки уровня бесполезности.https://youtube.com/watch?v=xF002Oda59A
Думаю ты и сам можешь поглядеть тесты процессора и как на 30-й минут Kingdome come deliverance ночью падает ниже 60 кадров на ультрах.
В более ранних тестах нагрузка на видеокарту может совпадать, а фпс разный. Ну как 4090 влияет на фпс тогда?
Ты себя здорово обманываешь по-моему. Большинство настроек графики имеют гомеопатический эффект, а вот на частоту кадров влияние негативное оказывают.
Про алиасинг слышал чего-нибудь иногда?
В общем да, можно не продолжать, всё понятно.
Просто это, возьми себе 4K монитор - и поймёшь, что на максимальных настройках в играх даже без всяких "лучей" за 4K@60 + 4xMSAA ускачешь, но уже не сильно. А 8K@60 для этих карт даже без AA - недостижимая планка, разве что на минималки ставить.
>Из-за необходимости поддержки старых GPU NVIDIA код драйвера Nouveau излишне усложнён и негибоклол, они еще поддержку старых карт выпилят. ^_^
А вообще, мне нравится выражение "излишне усложнён и негибок", вангую что системд будут выкидывать с этой же оговоркой, запиливая новый, модный и молодёжный pid1.
> лол, они еще поддержку старых карт выпилят. ^_^Откуда? В нова они их даже добавлять не будут. А в нуво всё останется как есть
Из nouveau можно будет выкинуть поддержку новых карт и он тоже станет проще.
Да разумнее было его разрезать на два, для старых и новых отдельно.
Проще выкинуть nouveau, к чему и готовят ядро.
>> лол, они еще поддержку старых карт выпилят. ^_^
> Откуда? В нова они их даже добавлять не будут. А в нуво
> всё останется как естьнуво выкинут под радостные визги местных пониё..в: луддит, нинужна, бери и поддерживай (с)
Так что так.Впрочем, незнаю кто всерьёз пользовался нуво. Как по мне, единственное его предназначение - пилить деньги LF всякими фридрисктопщиками, и максимум быть упомянутым во всяких хауту по занесению в блэклист с последующей установкой нормального драйвера.
> нуво выкинут под радостные визги местныхОткуда выкинут? Их старых версий ядра? Серьезно?
Если у вас старых хлам - то сидите на старых ядрах. Зачем вам новые?
Или вы хотите чтобы их поддерживали вечно?)
При чём тут ядро? Из софта выкинут. В том числе из всего нового. Привет, до-свидания.
Ну так сиди на старом!
А то:
"я хочу себе некрожелезо, некро ядро, но версия софта мне позараз нужна самая распоследняя.
Так что пусть слоники побегают! И все раде меня, очень ценного пользователя!"
>> нуво выкинут под радостные визги местных
> Откуда выкинут? Их старых версий ядра? Серьезно?бэкпортируют изменения, теперь так можно. :-D
> Если у вас старых хлам - то сидите на старых ядрах. Зачем
> вам новые?зачем, если можно с новым? просто не использую поделку красношляпых.
> Или вы хотите чтобы их поддерживали вечно?)
мне по барабану, просто удивительно как ты виляешь задом и пишешь чепуху лишь бы что-то сказать на тему "дропнут поддержку старых видеокарт". И вот мы пришли к тому что да, дропнут. лол.
Прям новое начало!
> драйвер для GPU NVIDIA, написанный на языке RustНо ведь местные кексперты с пеной у рта утверждали, что на расте невозможно написать драйвер!
Как же так получилось, что невидия взяла и смогла?!
Кто может объяснить??
это Red Hat представил драйвер
нвидиа не шмогла
Видимо плохие эксперты оказались. Неожиданно, лол.
Там самое вкусное в прошивке. Так что драйвер этот условный.
дада, а потом окажется, что фирмварь gsp на расте написана, жду не дождусь оправданий в таком случае
> дада, а потом окажется, что фирмварь gsp на расте написана, жду не
> дождусь оправданий в таком случае
$ strings /usr/lib/firmware/nvidia/550.54.14/gsp_*.bin | grep GCC:
GCC: (GNU) 8.2.0
GCC: (NVRISCV GCC 8.3.0-2022.03.28) 8.3.0кончай ныть, растаман. иди код переписывать :)
Она на Ada написана, если чё. Почитай, что предлагает SPARK, и чего нет и когда не будет у ржавчины.
> Она на Ada написана, если чё. Почитай, что предлагает SPARK, и чего
> нет и когда не будет у ржавчины.А судя по коментам прошлого чувака она писана на сях и собрана gcc'ом - под RISCV. Да, нвидия таки походу - вот - сменила свои Falcon на RISCV, как и грозилась.
Gcc компилятор Ada и в частности SPARK. Где ты нашёл си в кометах прошлого чувака? Они никогда не скрывали, что у них в прошивке.
> Она на Ada написана, если чё.Откуда дровишки?
> Почитай, что предлагает SPARK
Расскажи нам.
Так вон Кумар ещё 5 лет назад рассказывал, что у них за прошивки на Ada и как они у них используются, никто секрета из этого не делал. И в том числе объяснял, что такое SPARK и чем он хорош: https://www.youtube.com/watch?v=2YoPoNx3L5E
А на чём там написано для GSP, ты никогда не узнаешь. Невмдия не скажет.
Да там этот рУст, как start.sh используется
Ну так ты открой ссылку с перепиской и прочитай на чём они сразу же и споткнулись, ну:"With the choice of Rust the first problem to deal with are missing C binding abstractions for
integral kernel infrastructure (e.g. device / driver abstractions)."
Вполне ожидаемо.
То что ядро писалось дидами, причем не руками, а ногами, можно понять просто по кол-ву CVE.
И как переносить в раст код на дыряшке, который держится на "мамкой клянусь, тут null не будет", а сверху обмазано кастами к void*....
Думаю это действительно очень сложная задача.
> То что ядро писалось дидами, причем не руками, а ногами, можно понятьпросто по тому, что "нидиды" его банально не напишут - не хватит.
Недиды, кхе-кхе, Redox написали, вот.
> Недиды, кхе-кхе, Redox написали, вот.в котором уже допустили CVE 7.8 High. Тоесть, в абсолютно неиспользуемой оси, без софта, какой-то васян, которому нечего было делать, просто нашел уязвимость, Карл. А нидиды-растаманы до сих пор не могут это пофиксить, Карл! Феерическое зрелище. :-D
С хеллоуворлдами всё понятно, но практической ценности оно не имеет, там ещё лет 100500 писать, за это время растишка просто сдохнет.
>> драйвер для GPU NVIDIA, написанный на языке Rust
> Но ведь местные кексперты с пеной у рта утверждали, что на расте
> невозможно написать драйвер!Они совершенно правы. Другое дело, что в школе не изучали теорию множеств, потому вместо "я не могу" пишут "невозможно". Когда потребуется, специально обученные люди на деньги RedHat очень быстро всё перепишут.
Кстати, те же самые эксперты уверяют, что поддерживать (старое) ядро - как два байта переслать.
> возможность добиться значительного упрощения по сравнению с драйвером Nouveau, благодаря задействованию многих готовых обработчиков, предоставляемых прошивкой GSP.Основная часть функциональности реализована в GSP прошивке (на б-гомерзком C). А обёртку можно написать хоть на visual basic.
> Из-за необходимости поддержки старых GPU NVIDIA код драйвера Nouveau излишне усложнён и негибок
Не из-за C, а из-за того, что "старыми" GPU драйвер должен управлять "вручную", а не сказать "эй, прошивка, ну-ка быстро сделала ВОТ ЭТО".
Балин, это теперь в NetBSD что ли раст тащить :(
Невидию не тащить.
Возможно)
Их соседи уже начали обсужение "Разработчики FreeBSD обсуждают использование языка Rust в базовой системе" opennet.ru/openforum/vsluhforumID3/132627.htmlПосмотрим насколько разрабы NetBSD захотят отставать от коллег)
FreeBSD сосед NetBSD? ну-ну
отставать в чем? в добавлении ненужного? ну, FreeBSD тут на голову выше, согласен. но надо ли идти по такому же пути?
Если считать любое новшество ненужным, то в итоге останешься сам поддеживать древние кода.
Но возможно это их устраивает, и все нормально.ps если бы таких слушали, до сих пор сидели бы на первопнях)
> ps если бы таких слушали, до сих пор сидели бы на первопнях)нетка хорошо работает на первопнях. чего не скажешь о расте. :-D
> нетка хорошо работает на первопнях. чего не скажешь о расте.Никто не спорит.
Она хороша для ректо-компов.
Но вот нужна ли первопню распослендяя видяха невидии - большой вопрос.
Я бы даже сказал - фундаментальный))
Ну, на первопень ты распоследнюю не воткнёшь.
Вот на какой-нибудь Atom... но это вообще из области аутосадомазохизма.
>> нетка хорошо работает на первопнях. чего не скажешь о расте.
> Никто не спорит.
> Она хороша для ректо-компов.
> Но вот нужна ли первопню распослендяя видяха невидии - большой вопрос.
> Я бы даже сказал - фундаментальный))Как и вопрос "нужен ли раст" в кодовой базе нетки. Фундаментально-риторический)
> Фундаментально-риторический)Тут как раз всё просто.
Вам нужны дрова - значит или пишите сами, или затягиваете раст.
Вам не нужны дрова - нафиг он вам сдался, пройдите мимо))
> Тут как раз всё просто.
> Вам нужны дрова - значит или пишите сами, или затягиваете раст.можно просто перенести из раста в си. и то, лет через дцать, когда/если нова вырастет из хелловорда во что-то толковое.
> Вам не нужны дрова - нафиг он вам сдался, пройдите мимо))
господи, один хелловорд, а уже такая жизненная дилема: "нужны дрова - не нужны дрова". :-D
>Если считать любое новое смузиподелие априори прогрессом и чем-то очень нужным лишь по факту даты релиза, то в итоге будешь регулярно употреблять сладкий хлеб.
>Но, возможно это тебя устраивает, и все нормально.Исправил, не благодари.
А если считать любое новшество нужным, то превратишься в гномосека, которые уже дцать лет не могут нормальное DE запилить.
К счастью в NetBSD разработчики довольно консервативные, так что врядли.
Качаешь скрипт с редиректом в sh. Он тебе всё поставит без рута в хомяке.
О, сразу видно кто в линуксе дело делает, а кто только языком чешит.
А потом будут недоумевать "а почему шапка решает и определяет развитие ядра?!".
А потому что именно они работают и код пишут.
Это решили в IBM. Скоро они опять захватят мир.
Пф… Вы ещё скажите, что владельцы у них разные. 😆
Мне честно не понятно, какая разница на каком языке драйвер написан, если он нормально работает и решает задачи? Разработчику удобно писать на раст пусть пишет на нем, да хоть на бейсике, если сможет реализовать решение задачи.
если тебе это непонятно - мне непонятно почему ты не пользуешься виндой. Там все нормально с драйверами.
Нормально? После всех историй с принтерами? Держу в курсе - последнее обновление винды притягивает баг который гасит производительность драйвера AMD примерно на 30%. На фопда буквально вчера была новость. До этого винда тупо откатывала версии на какую ей понравится. Там щас каждое обновление это минное поле. Дошло до того что предпредыдущее обновление не рекомендовали ставить сами же майкры что вообще абсурд.
> Нормально? После всех историй с принтерами?косится под стол - вроде принтает.
> Держу в курсе - последнее обновление винды притягивает баг который гасит производительность
> драйвера AMD примерно на 30%.ну откати... делов-то. (от же ж счастье - нет амуда, нет проблем) Я их вообще никогда не ставлю "с пылу, с жару". Потому что да, MS может и передумать через день.
Ну а про критичные и вне графика они и так предупредят.
У невидии было хуже. С производительностью всё ок, но блин вот это вот эпилептическое подёргивание во всех играх - и там не поймёшь, кто. Отмазывались на MS но в итоге решилось с обновлением их собственного драйвера.
Мои задачи винды не требуют, решения, которые мы разрабатываем и внедряем там винда на фиг не нужна, выбор Linux обусловлен скорее экономическими соображениями и организационными, а так наши решения, могли бы работать на BSD системах.
В винде с драйверами мягко скажем не все слава Богу, писать драйвера под FreeBSD существенно приятней и дешевле, чем под винду, скажем так из опыта драйвер под винду обходится на 50-100% дороже, чем под фри, это из прошлого опыта.
Но возвращаясь к исходной теме, если было больше стандартизации у железа, то принесло больше пользы с точки зрения качества и функционала, чем язык на котором драйвер написан.
ну ты блин нашел с чем сравнить. Под фри разумеется проще и дешевле. (достаточно сравнить документацию на ядро фри и ... собственно, пустое место, у стабильного нонсенса)Но вы-то зачем-то - linoops используете...
"Возвращаясь к исходной теме" - если ты ничего не можешь да и не собираешься исправить в драйвере - даже банальную опечатку в новой версии, из-за которой у тебя внезапно чорный экран случилась - то тебе должно быть совершенно все равно на чем он написан, и под чем работает - просто под виндой во-первых куда менее вероятны такие проблемы, во-вторых никто не заставит тебя (некоторое время, впрочем, довольно продолжительное) ради обновления драйвера на снова работающую версию заодно поставить пре-альфа-версию винды, с которой он только и совместим. Или наоборот - ради обновления на очередной "fall" (где починили что-то в совсем другом месте) обновлять драйвер который и так устраивает. А в линуксе только так и бывает.
А если можешь и собираешься - то вероятно таки тебе есть некоторая разница.
Мы используем то, что имеет сертификаты безопасности, запилите какую-нибудь FreeBSD Pro RUS Edition c сертификатом безопасности ФСБ с удовольствием будем использовать-)
Про исправление драйверов, если код драйвера нормально документирован это одна история, если нет, то как показывает опыт, язык программирования второстепенен. Был случай, когда производитель нестандратной железки скинул исходники драйвера своего девайса, код был на С++/asm, комментарии и описание отсутствовали, как класс. Получаем ситуацию - есть девайс на шине PCI на нем RISC процессор с DSP, внешняя оболочка на С++, внутри на asm, разбирались долго, как эта хрень работает, баг поправили, но полгода на это убили.
> - есть девайс на шине PCI на нем RISC процессор с
> DSP, внешняя оболочка на С++, внутри на asm, разбирались долго, как
> эта хрень работает, баг поправили, но полгода на это убили.А было бы оно без сорца - вы бы и за 5 лет пожалуй не справились бы...
Разница станет понятна, когда из Linux 7.0 вдруг понадобится что-то бэкпортировать в полностью автономное Linux 5.15.
Это база.
Ну ладно у NVidia это маркетинг, а эти зачем выкидывают 16хх серию то ?
Там GPU такой же как в 20хх.
Нет GSP.
16хх - это решили распродать с заводов кривые кристаллы чипов от 20хх. Брать 16хх - себя не уважать.
Пока в GCC нет компилятора раста - это ничто иное как диверсия.
дык уже пишут
Стоп, так уже в ядре 6.8 есть какой то модуль на Rust.
> Пока в GCC нет компилятора растаА зачем?
Ядро прекрасно собирается CLang. Google подтвердит - он сотни ядер для миллиардов смартов собирает.
Раст тоже прекрасно собирается CLang.
Зачем в эту связку тащить GCC- абсолютно не понятно.
> А зачем?Это монополия, монополия - плохо.
> Google подтвердит - он сотни ядер для миллиардов смартов собирает.
Нашел кого в пример приводить. Эти из хрома выпилили возможность нормально блочить рекламу, а завтра еще что похуже сделают. Но выбора у тебя не будет, ибо ты в первых рядах кричал в поддержку.
> Это монополия, монополия - плохо.Разве монополия это плохо?
Вот в соседней ветке с пеной у рта доказывают что монополия иксов это хорошо, а вейланд это фрагментация и гро-гроб-кладбище-ты.А ядро линукса, которое много лет собиралось монопольно только GCC, потому что гнутые понаписывали своих extensions это было хорошо?
> Нашел кого в пример приводить.
Ну да, ну да. Ему про ядро, а он про хром. Л-логика.
>> Это монополия, монополия - плохо.
> Разве монополия это плохо?
> Вот в соседней ветке с пеной у рта доказывают что монополия иксов
> это хорошо, а вейланд это фрагментация и гро-гроб-кладбище-ты.
> А ядро линукса, которое много лет собиралось монопольно только GCC, потому что
> гнутые понаписывали своих extensions это было хорошо?Да, было хорошо, потому что gcc - не принадлежит корпорастам.
>> Нашел кого в пример приводить.
> Ну да, ну да. Ему про ядро, а он про хром. Л-логика.Опять аноны не читают, а сразу пишут. Речь то про гугл шла.
> Да, было хорошо, потому что gcc - не принадлежит корпорастам.Да))) Блажен, кто верует))
GCC steering committee members
David Edelsohn (IBM)
Kaveh R. Ghazi
Jeffrey A. Law (Ventana Micro Systems)
Marc Lehmann (nethype GmbH)
Jason Merrill (Red Hat)
David Miller (Red Hat)
Toon Moene (Koninklijk Nederlands Meteorologisch Instituut)
Joseph Myers (Red Hat) [co-Release Manager]
Gerald Pfeifer (SUSE)
Ramana Radhakrishnan
Joel Sherrill (OAR Corporation)
Ian Lance Taylor (Google)
Jim Wilson (SiFive)
gcc.gnu.org/steering.htmlIBM, Red Hat, Google...
Что как-то много... корпорастов, не?Вот завтра примут они решение выпилить какой-то древний язычок, на котором ты так любишь пописывать.
И что?)) Ты форкнешь GCC? Или поноешь и утрешься?
>[оверквотинг удален]
> Toon Moene (Koninklijk Nederlands Meteorologisch Instituut)
> Joseph Myers (Red Hat) [co-Release Manager]
> Gerald Pfeifer (SUSE)
> Ramana Radhakrishnan
> Joel Sherrill (OAR Corporation)
> Ian Lance Taylor (Google)
> Jim Wilson (SiFive)
> gcc.gnu.org/steering.html
> IBM, Red Hat, Google...
> Что как-то много... корпорастов, не?Во первых они разные, во вторых код под gpl. А вот что ты будешь делать, когда твой llvm завтра код закроет и сделает его платным, когда достаточную фанбазу наберет?
> Вот завтра примут они решение выпилить какой-то древний язычок, на котором ты
> так любишь пописывать.
> И что?)) Ты форкнешь GCC? Или поноешь и утрешься?Ну если дела совсем плохи, то форк. В любом случае у этого язычка есть спецификация в отличие от.
> они разныеАхаха, ну да, ваши корпорасты не корпорасты! Вы не понимаете, это другое!
> во-вторых код под gpl
Как gpl защитит от выпиливание нужного тебе.
GCC дропнули copyright assignment policy только в 2021 году. И технически, все что до этого FSF может закрыть.> А вот что ты будешь делать, когда твой llvm завтра код закроет и сделает его платным, когда достаточную фанбазу наберет?
Тоже что и ты - возьму последнюю версию под старой лицензией.
Потому что свободные лицензии назад не провернешь))
Или форкну "если дела совсем плохи".> В любом случае у этого язычка есть спецификация
Угу, а потом окажется что в GCC ее поняли по-своему, в clang по-своему, а в студии еще как-то.
Спецификация бесполезна если там куча оговорок в стиле "а хз как делать, пусть реализующий компилятор разбираются" - 1.3.5 implementation-defined behavior и 3.4.3 unspecified behavior.
А ведь еще есть всеми любимые UB))Плюс сами компиляторы реализуют "стандарты" частично. И никто им за это ничего не сделает.
Ни один компилятор не поддерживает с99 полностью!
en.cppreference.com/w/c/compiler_support/99Может это только со старым такая проблема?
А вот и нет - с23 та же самая фигня - куча partial, maybe и not supported
en.cppreference.com/w/c/compiler_support/23Можно конечно возразить "Вот та фигня никому нафиг не нужна!". Но что же это за стандарт такой??
А вот он такой шикарный стандарт!
Единственное его применение - печатать на мягкой бумаге.> в отличие от.
А тут есть референсная реализация.
И именно с нее гнутики будут передирать свою реализацию.
>Спецификация бесполезна если там куча оговорокПруфай.
>в стиле "а хз как делать, пусть реализующий компилятор разбираются"
Ложь. Не "хз как делать", а "разработчики компиляторов лучше знают, как им и их юзерам надо".
>А ведь еще есть всеми любимые UB))
Тоже ложь, на самом деле "раскручиваемое сторонниками некоторых смузихлёбных ЯПов как нечто ужасное и недопустимое UB".
>Можно конечно возразить "Вот та фигня никому нафиг не нужна!". Но что же это за стандарт такой??
Где противоречие, если вся остальная часть, кроме каких-то минорных и не нужных фич - реализована?
>А тут есть референсная реализация.
Эта та, у которой "combination of variance and implied bounds for nested references opens a hole in the current type system"? (см. issue #25860. Через два месяца ей 9 лет исполнится, кстати) С такими "референсами" действительно и спецификации не нужны. Чтобы психику разработчиков не травмировать.
> Пруфай.Я тебе даже номера искомых пунктов из "стандарта" си дал.
Пройдись и посмотри что у них implementation-defined behavior и unspecified behavior.Но я тебе помогу! Держи пару штук! Разумеется не все, их слишком много))
>> All other negative values for FLT_EVAL_METHOD characterize implementation-defined behavior
>> Implementation-defined behavior is the propagation of the high-order bit when a signed integer is shifted right.
>> unspecified behavior is the order in which the arguments to a function are evaluated
> Не "хз как делать", а "разработчики компиляторов лучше знают, как им и их юзерам надо".Ну-ну. А на выходе всё равно получается хз как))
gcc.gnu.org/bugzilla/show_bug.cgi?id=107238
github.com/llvm/llvm-project/issues/11644
stackoverflow.com/questions/22785705/different-results-between-clang-and-gcc-with-same-code
stackoverflow.com/questions/60973073/implementation-defined-behavior-in-c
и куча другихА потом у тебя "переносимый код" спокойно себе компилируется, но результат получаешь другой))
> как нечто ужасное и недопустимое UB
Ох сколько уязвимойстей было из-за того что в сришечке переполнение signed это UB)))
Но если заглянуть в пункт 4. Conformance, то там как раз написано, что
"A program that is correct in all other aspects, operating on correct data, containing unspecified behavior shall be a correct program"
Т.е. с unspecified behavior программа еще корректная, а вот с undefined - нет.
И компилятор, по хорошему, может просто заменить UB на noop.Но разрабы компиляторов конечно так не сделали, потому что надо было бы что-то делать с сотнями тысяч строк быдлокода, который уже успели выпрограммировать до принятия стандарта.
На самом деле, если знать историю си и то, как принимался этот "стандарт", то сразу понятно почему так сделали. Но это их не оправдывает.
> Где противоречие, если вся остальная часть, кроме каких-то минорных и не нужных фич
О, так оказывается в Стандарте есть обязательное к исполнению и не обязательные))
Причем сам стандарт это не определяет, это решают имплементирующие его.> combination of variance and implied bounds for nested references opens a hole in the current type system
Да, штука неприятная, не спорю.
С другой стороны, в си с 89 года signed overflow не исправили))
>Я тебе даже номера искомых пунктов из "стандарта" си дал....которые ничего не пруфают. Хорошо, давай разжую для самых маленьких. Тезис "Спецификация бесполезна если там куча оговорок", в данном контексте, по сути состоит из следующих двух тезисов:
1. В спецификации КУЧА оговорок -> требуется пруф, что их действительно КУЧА, а не полтора частных случая. Тебе также следует привести конкретное определение, что вообще считается КУЧЕЙ, а что нет. В противном случае, я вынужден констатировать, что куча тут только у тебя в штанах.
2. Если в спецификации есть <некое количество> оговорок, то она бесполезна -> требуется пруф, что заданное количество оговорок коррелирует с полезностью спецификации.>Ну-ну. А на выходе всё равно получается хз как))
А ещё можно научиться читать. Советую лично тебе воспользоваться этим советом. По первой ссылке:
>>Status: RESOLVED INVALID
И предъява там вообще не к гцц, а к шлангу. К тому самому шлангу, который от ллвм-проджект, да-да. То есть, халатность по отношению к разработке LLVM вполне можно выставлять как упущение ржавчинолюбов, которые пользуются, как ни странно, поделием основанным именно на б-гомерзком фронте плюсового LLVM API. Ну и, кстати:
>>Our implementation-defined behavior is defined by our implementation
То есть, получается, что не "хз как", а вполне себе implementation-defined. А следующие две ссылки на стак вообще ничего нового не демонстрируют и, как следствие, не пруфают. Ты солгал, получается.
>А потом у тебя "переносимый код" спокойно себе компилируется, но результат получаешь другой))
Используешь IDB/UB = ССЗБ, ответственность за действия целиком на тебе. А если всё-же следовать стандарту, то код действительно получается переносимым и компилируется в предсказуемый вид на любой архитектуре, которой больше чем одна (если кто-то вдруг не знал). Что там кстати с поддержкой архитектур в rustc? А, точно, в tier 1 по прежнему полторы калеки, как жаль...
>Ох сколько уязвимойстей было из-за того что в сришечке переполнение signed это UB)))
Спасибо за демонстрацию столь феноменальных навыков построения причинно-следственных связей, но в реальности причиной уязвимостей является некомпетентность/невнимательность программиста, а не дизайн инструмента. Или ты уже бежишь призывать отказываться от экскаваторов, потому что на нём можно случайно переехать человека? Впрочем, как *показывает практика*... github[dot]com/Speykious/cve-rs
>И компилятор, по хорошему, может просто заменить UB на noop.
Может, но не должен. На то оно и UNDEFINED.
>Но разрабы компиляторов конечно так не сделали, потому что
в отличии от опеннетных экспертов понимают, зачем вообще оно существует. Это тебе домашнее задание, узнать предназначение UB. Предвосхищая доводы в стиле "чтобы сделать плохо миру, ведь сишники ненавидят человечество": нет, это ложный ответ.
>На самом деле, если знать историю си и то, как принимался этот "стандарт", то сразу понятно почему так сделали.
Тебе - нет, не понятно. Иначе бы занялся делом, а не позорился в комментариях.
>О, так оказывается в Стандарте есть обязательное к исполнению и не обязательные))
Фантазировать прекрати или хотя бы читать научись.
>Причем сам стандарт это не определяет, это решают имплементирующие его.
Имплементирующие стандарт решают что имплементировать, а что нет. Для тебя это неожиданность?
>Да, штука неприятная, не спорю.
Ахах, понимаю, UB в C - это "ужас, срочно переписать весь код на другом языке!", а ФУНДАМЕНТАЛЬНАЯ недоработка в дизайне - это "ну, штука неприятная, гхм пук". Сектанты такие сектанты.
Не волнуйся, в расте ещё множество подобных весёлых "неприятных штук", например, протекющий унсейф контекст в сейф через лямбды: play[dot]rust-lang[dot]org/?version=stable&mode=debug&edition=2021&gist=9d167c7dd188c2995d550474fa28107e
А no-google-chrome уже собрать нельзя?
Прям все запретили?Это же опенсорс - просто форкни и используй.
Можно отпочковаться и сидеть на какой-то древней версии, типа как делает паленка.Неужели Сообщество не сможет поддерживать clang самостоятельно))?
Сейчас проблема слишком запущена, монополия это плохо, но хуже то, что нормальных компиляторов просто не осталось
Вместо того чтобы повторять навязанную ахинею стоит задуматься почему плохо и плохо ли вообще.
Раст через rustc собирается в LLVM. Где ты тут Clang увидел?
Чем оно лучше nvk?
тем что написан на Rust.
> тем что написан на Rust.Спрашивали же про лучше. Садись, два.
Так никто сказал что лучше для ВСЕХ.
Два - это слишком много для него. Ноль!
Это, скорее, недостаток.
А почему ты решил, что он заменяет NVK?
тем же, чем яблоко лучше железобетонаnova сидит в ядре и предоставляет drm, nvk сидит в юзерленде и предоставляет булкан
Ничем, пока не завернут бережно с любовью в грамотно собранный пакет и не выложат в репозиторий.
nvk - userspace
nova - kernel space
теперь невидию на power не завести и об gcc-оптимизациях можно будет забыть
> теперь невидию на power не завести и об gcc-оптимизациях можно будет забытьНо зачем?
Зачем вообще нвидия и power?А про "gcc-оптимизации" ты погорячился.
В тестах clang немного обгоняет gcc.
phoronix.com/review/gcc-clang-eoy2023/8
Думаю как только ядро надо будет компилять clang'ом, то еще на пару процентов улучшат.Единственное что может пойти не так - это то что гнутые взбрыкнутся и начнут ставить палки в колеса.
Типа наше ядро должно собираться только нашим компилятором.
И, например, добавят еще какие-то extensions.
> В тестах clang немного обгоняет gcc.тесты это конечно хорошо, но нвидию на пауэре всё же не видать. :-D А так - доооо, тесты похороникса. Ням-ням.
На иностранный маркетинг в виде тестов пожалуйста не обращайте внимание. Скажите пожалуйста а хоть кто-то из местных, кого можно подтвердить и кому можно доверять, когда-то пытался сделать подобные тесты и опубликовать?
Как вот насчёт NVCC или AOCC в таком случае?
> теперь невидию на power не завести и об gcc-оптимизациях можно будет забытьТак то есть такая штука как gccrs - и вполне возможно что ее к моменту актуальности вон того - возьмут в оборот. Первая версия этого - вошла в gcc13. Там кой-чего не хватает, главное это боров-чекер, но его как раз - активно пилят.
GT710 хватит всем.
Если не играть в игры, до более чем. Я вообще сижу на встройке GMA 950 и мне хватает.
Так можно взять Райзен тогда даже в игры некоторые играть будет можно.
Я на встройке G4400 GTA V прошёл и RE:R2 играл и не лагало.
Хотелось бы в это верить. Но игры умудряются даже на топовых компах лагать. Например, Volcanoids с не особо крутой графикой фризит даже на минималках, сжирает 6 гб оперативы. А всё потому что Unity. Death Stranding дико фризит, если включен Steam Input и вибрация, но и потом маловато фпс, хотя ресурсы почти не используются. А всё потому что Decima. Когда уже люди поймут, что надо переходить на Unreal Engine?
А Unreal Engine (особенно 5-й) тормозит в принципе просто потому что
И оптимизировать его под конкретные проекты необходимо, что современные гэйммейкеры не осиливают практически никогда
Скорее не допускать косяков, как в случае с Deep Rock Galactic, ARK Survival Evovled, PUBG. Графика слабая, а тормоза дикие. Зато Outlast я играл даже на gt730.
а тут и новая версия Rust подоспела.
Что уже не работает еще не написанный код?
Сеова всё ненаписанное переписывать
> Сеова всё ненаписанное переписыватьРастоман переписывает - зарплата идет.
Вы только посмотрите что они делают!!!https://youtu.be/rckkDhlz2RE?t=3
И после этого вы собираетесь спонсировать зеленых?
> Вы только посмотрите что они делают!!!не вижу где они отрывают людям головы.
> И после этого вы собираетесь спонсировать зеленых?
не собираюсь. Бесполезная фигня.
>> Вы только посмотрите что они делают!!!
> не вижу где они отрывают людям головы.Скоро будет https://www.youtube.com/watch?v=F5gCd3y8JzE
Вот это нормальный робот, не то что ваша нвидия!
> Вот это нормальный робот, не то что ваша нвидия!DOG'адайся, к кому этот нормальный робот придет первым делом. Обсудить новые границы в понятном формате, и вообще. А то у китая по итогам второй мировой есть определенные претензии к освободителям. По части исконно китайских земель, если уж вы о птичках.
Заселится стайка таких на дальнем востоке - и что хочешь то и делай :)
Непонятно, зачем шапке пилить васян-драйвер, они на серьёзных щах собираются это впаривать своим клиентам? Эталонный раст вей, вангую, что это временная дурь, попыжатся и бросят.
майки через леннартушку уже впарили пулсу, системд и чёрта лысого
> майки через леннартушку уже впарили пулсу, системд и чёрта лысогонаоборот - они чорта (рыжего) забрали себе, потому что им очень понравилось то что он делает - добровольно и с песнями.
Теперь вреда от него, можно считать, никакого. Но поздно.
Типа того, но это про Systemd.
А PulseAudio теперь мало кому нужен.
> PulseAudio теперь мало кому нужен.ага
только хз как от него избавиться
Они пишут или переписывают? Если пишут, то это точно растоманы?
> Они пишут или переписывают? Если пишут, то это точно растоманы?noveau уже написан. Так что да, точно, они!
Наоборот же.
пишут, потому что нуво писался под до-gcpшные чипы и работает с ними через пень-колодуэтот только для gcpшных чипов
>и работает с ними через пень-колодуС до-gcpшными чипами или с после-gcpшными чипами или со всем вместе?
> С до-gcpшными чипами или с после-gcpшными чипами или со всем вместе?по-хорошему, со всем вместе, но gcpшным чипам особенно плохо (кое-как вкорячили поддержку с месяц назад, но это ни о чем)
Красный Шляп?
> применение языка Rust повысит безопасность2k issues
Нет софта нет опасностей.
Может надо было старый открытый драйвер дописать, чтобы он стал нормально работать?
дописывай, в чем проблема-то?Задача редбиэм ровно противоположная - чтоб никогда нормально не работало и исправить в этом ты ничего не смог.
Видимо, вопрос стоял не "сделать ли, чтобы нормально работал", а "переписать ли на каком-нибудь другом языке". Причём при переписывании спокойно снесли половину функционала в виде поддержки кучи старого железа, что позволяет оценить назначение этого драйвера и понять, что пишут его не для того, чтоб работало.
Когда код переписывается, то логично выкинуть ненужное.
Например куски кода для жележа 15-20 летней давности.
Все равно у него пользователей 1,5 калеки, зачем тратить время и ресурсы, раздувать кодовую базу?
Это как ругать мастера на СТО, что у него нет запчастей для "победы" или "москвича 412".
Ненужное кому?
> Ненужное кому?четырём процентам линуксоидов. кодовая база, понимаишшш, пухнет. :-D
> Все равно у него пользователей 1,5 калекиЯ это и имел ввиду. Почему-то XFS они не переписывают на раст с выкидыванием кучи систем из поддержки. А это - пожалуйста. Потому что тренироваться на чём-то надо, и нуво как раз подходит - его пользователей можно смело перевести на стандартный веса-драйвер или какой-нибудь модный llvmpipe с программной эмуляцией 3d-примитивов (при этом двухмерный гном, кстати, будем писать так, чтобы на устройтсвах без поддержки 3d не работал).
Всё равно те, кто видит разницу между отсутствием и наличием аппаратного ускорения, повально сидят на блобе.
Какая разница на чем написан драйвер если полноценного 3D ускорения в нем не видать от слова _никогда_??
Так в линуксе никогда нормального десктопного 3D и не было. Удел линукса -это сервера и встроенное оборудование.
Что за притеснение ненормального десктопа?
Red Hat не может 3D ускорения в KVM/qemu какие драйвера? Клоуны.
Лучше бы декодирование видео в браузере допилили, чтобы без конпиляций и конфигов
Если кто-то ещё не видел, вот заявленные строки жизни существующих ядер с долгосрочной поддержкой (LTS)Version Released Projected EOL
6.6 2023-10-29 Dec, 2026
6.1 2022-12-11 Dec, 2026
5.15 2021-10-31 Dec, 2026
5.10 2020-12-13 Dec, 2026
5.4 2019-11-24 Dec, 2025
4.19 2018-10-22 Dec, 2024
> 6.6 2023-10-29 Dec, 2026
> 6.1 2022-12-11 Dec, 2026Эти двое ещё могут быть продлены, если кто-то из сопровождающих захочет. Ядра, которые поставляются в стабильных ветках всяких дебианов/убунт, обычно расширяют поддержку после объявления изначального "ЛТС-срока" (роставляются ли конкретно эти ядра в ЛТС-ветках дистрибутивов, не знаю)
Если. В том то и дело. Я не знаю, было ли такое раньше, когда столь странно совпадали даты окончания поддержки 4-х веток, причём с концом года. Похоже, что есть какой-то план на 2027-й. Например, сейчас делают пробные заходы с Rust. Выявляются проблемы и устраняются. Определяются люди, кто действительно умеет и готов писать на Rust, их покупает RedHat. Если дальше всё идёт хорошо, по команде достаточно быстро переписывают что-то важное. Как и кто в таком случае будет бэкпортировать изменения кода на Rust - не очень понятно.
> Как и кто в таком случае будет бэкпортировать изменения кода на Rust - не очень понятно.Ну так прекрасное и могучее Сообщество™ просто возьмет и перепишет изменения с раста на си!
Там же работы на пару вечеров, потому что со стороны раста все проверки валидности сделаны))
Нужно просто сесть и аккуратно переписать.А вообще 2026 год - прекрасный год чтобы оставить луддитов в прошлом.
>В развиваемом с нуля новом драйвере Nova можно изначально не допустить появления подобных проблем и усложненийПодождите, я не тупой и умею читать Опеннет.
https://www.opennet.dev/opennews/art.shtml?num=60699
Есть _уже_ драйвер для новых видеокарт Nvidia, называется NVK.
Есть _уже_ открытый nvidia драйвер nvidia-open-kernel.
Зачем вам ещё третий?
Что бы сменить лицензию, необходимо согласие всех владельцев имущественного авторского права.
NVK - это Vulkan-драйвер для Mesa, т.е. надстройка над драйверами, работающими на уровне ядра. NVK дополняет драйверы Nova и Nouveau, но не заменяет их.nvidia-open-kernel - зависим от блобов, выполняемых в user space, и по-отдельности без проприетаных драйверов NVIDIA безполезен, основная логика там в закрытых частях драйвера. В состав ядра nvidia-open-kernel никогда не примут из-за своего видения NVIDIA как оформлять код и взаимодействовать с ядром.
Nouveau - это в ядре DRM, в X.org DDX и в mesa OpenGL. Ты какой конкретно nouveau имеешь в виду?NVK (который для вулкана в mesa) работает поверх nouveau в ядре. Потом для NVK специальные куски добавили в ядерный nouveau (эти куски не использует nouveau из mesa и их логично вынести в отдельный ядерный драйвер).
А nouveau, который DDX в X.org может быть заменён на modesetting (который будет работать через mesa и ядро).
Да, и ещё дополню себя... OpenGL в mesa может быть заменён на zink, который будет делать opengl для новых карт через vulkan.
Так вся проблема в языке была? На си невозможно было драйвер написать, да?
Вот теперь можно всерьёз говорить о переходе на wayland. Видно что шляпа настроена серьёзно. Жаль что развитие linux-desktop у Red Hat идёт теперь по тому сценарию который пыталась и не смогла осуществить Canonical — настроить велосипедов, принудительно на них пересадить.Red Hat же часть IBM у которой есть свои процессоры и богатый опыт создания персональных компьютеров. Могли бы заделать аппаратную платформу специально для RHEL for Workstations, хоть совсем без карт NVIDIA, хоть наоборот с ними одними.
Странно что ни в новости не в комментариях ни слова про NVK.
Разработчики NVK отмечали, что nouveau плохо подходит для работы с вулканом и его или существенно придётся переписать или написать им свой с нуля.
Возможно, этот Nova зародился по инициативе NVK.
Та не,експерты отписывались выше про это.
GCC: (GNU) 8.2.0
Вот это меня больше всего заинтересовало.А я как дебич шлангом пользуюсь,надо на gcc переходить как в лучших домах.
> А я как дебич шлангом пользуюсьты думаешь что пошутил, но ты не пошутил.
Ну что, пора писать драйвер под невидию методом вайнового парного программирования (один пишет спеку, другой кодит). И не впускать фридесктоп.
да давай, мы верим в тебя
> благодаря задействованию многих готовых обработчиков, предоставляемых прошивкой GSPБлобы переехали в прошивку. Теперь разобраться, как работает железяка, будет заметно труднее: прошивка абстрагирует "ненужные" подробности.
Изучить новые блобы будет сложнее: для начала их нужно будет как-то извлечь, и код там не x86/arm, а какой-то доморощенный CISC/VLIW.
А индейцы радуются стеклянным бусам и оспенным одеялам...
Ах, да, "старые" карты не поддерживаются.
Во-первых, ваши деньги нужнее nvidia, а во-вторых, ЦРУшные зонды в прошивке как-то незаметнее и сохраннее будут.
> Блобы переехали в прошивку. Теперь разобраться, как работает железяка, будет заметно труднее:
> прошивка абстрагирует "ненужные" подробности.Хм, если я хочу выпускать железку с блобом, это мое полное право.
А фанатикам я думаю выбор - покупать или нет.> Изучить новые блобы будет сложнее: для начала их нужно будет как-то извлечь,
> и код там не x86/arm, а какой-то доморощенный CISC/VLIW.А вот нефиг лезть в мои кода! Вдруг там неубрано, валяются куски закоменченного кода, висят висячие ссылки...
А то ходят всякие, в окна заглядывают.> А индейцы радуются стеклянным бусам и оспенным одеялам...
Ну так не бери! Пусь могучее сообщество, во главе с главным похитителем емаксов воспрянет и запились свои видяхи...
Хотя, без корповских денег на выходе будет очередной хурд, зато да, свободный))
>Проект позиционируется как продолжение развития драйвера NouveauЭто сами авторы Nouveau такую декларацию сделали, или это влажные фантазии самозванцев?
Знаете что самое странное в этой новости? Nouveau который они хотят заменить это драйвер. И вот сам драйвер они выносят в отдельный модуль. Получается что это драйвер драйвера, которому можно добавить множество драйверов. В целом чисто теоретически это может сэкономить место и сделать возможным поддержку многих устройств. Место экономиться путём скачивания нужного модуля под железо которое есть реально на ПК, соответственно можно поддерживать драйвера всех устройств, чего не будет т.к. устаревшие драйвера не будут поддерживаться. В целом идея не особо нова. В винде вставляешь устройство и оно ищет у себя в репозитории драйвер и он приходит с обновлениями.
гениальная венда, где
>ищет у себя в репозиториислучайный драйвер от случайного устройства
>он приходитнеслучайной уязвимой версии или с бсод
>драйвер драйвера, которому можно добавить множество драйверов.Этот паттерн называется abstract factory.
>драйвер для GPU NVIDIA, написанный на языке RustА когда-то драйвера писали на ассемблере, экономя каждый байт и такт процессора.
>>драйвер для GPU NVIDIA, написанный на языке Rust
> А когда-то драйвера писали на ассемблере, экономя каждый байт и такт процессора.Когда-то наши предки использовали палку-копалку, но сейчас не испольуют, хотя идея осталась та же.
Надо просто не бояться оставлять старые инструмены, если они становятся неэфективными.
В данном случае, ассемблер это слишком времязатратно.