скорость вращения куллер видеокарта nvidia
chupz 4 мая, 2010 - 00:19
Всем всего.
Собственно сабж.
Быстро вращается куллер видеокарты gf9800GT (не-reference дизайн), после входа в иксы. KDE4.
ПРОБОВАЛ: версии драйверов менял с 177.х по 190.х в
В предыдущей сборке дженту, было всё норм, правда и ДМ был не KDE.
»
- Для комментирования войдите или зарегистрируйтесь

media-video/nvclock умеет
media-video/nvclock умеет управлять скоростью вращения вентилятора. Пользовался им пока не поменял охлаждение на zalman'ское.
мм, у меня лабуда, в общем в
мм, у меня лабуда, в общем в том, что эта прожка не умеет управлять ядрм видимокарт таких серий G90, а драйвер сам "керует" неправильно потому, что скорость температуру показывает -378 градусов. Наверное не подгрузил модуль ядра какой-нить, ну или не верно собрал. Надо глянуть.
настаиваем:
настаиваем: /etc/X11/xorg.conf секцию Section «Device» добовляем параметр Option «Coolbits» «1» , этот параметр добовляем у гуишных настройках регулировку мощьности карточьки…
вот что у меня получилось
Section «Device»
Option «Coolbits» «1» #включения параметра регулировки мощьности видео карточьки
Что бы ты не делал , жизнь слишком коротка!
Блог о BSD системах.
Ага, про Coolbits читал в
Ага, про Coolbits читал в факе к программулине, но подумал, что это "грабли".
Странно т.к. у меня тоже
Странно т.к. у меня тоже Palit 9800GT
Error: adjustment of the
Error: adjustment of the fanspeed isn't supported on your type of videocard!
И до и после добавления coolbits в xorg.conf. :(
температура видеоядра определяется как -385.
Xorg.0.log:
(**) NVIDIA(0): Depth 24, (--) framebuffer bpp 32 (==) NVIDIA(0): RGB weight 888 (==) NVIDIA(0): Default visual is TrueColor (==) NVIDIA(0): Using gamma correction (1.0, 1.0, 1.0) (**) NVIDIA(0): Option "RenderAccel" "True" (**) NVIDIA(0): Option "AllowGLXWithComposite" "True" (**) NVIDIA(0): Option "Coolbits" "1" (**) NVIDIA(0): Enabling RENDER acceleration (II) NVIDIA(0): Support for GLX with the Damage and Composite X extensions is (II) NVIDIA(0): enabled. (WW) NVIDIA(GPU-0): Failed to determine GPU name (II) NVIDIA(0): NVIDIA GPU Unknown (Unknown) at PCI:4:0:0 (GPU-0) (--) NVIDIA(0): Memory: 524288 kBytes (--) NVIDIA(0): VideoBIOS: 62.92.3b.00.00 (II) NVIDIA(0): Detected PCI Express Link width: 16X (--) NVIDIA(0): Interlaced video modes are supported on this GPU (--) NVIDIA(0): Connected display device(s) on Unknown at PCI:4:0:0: (--) NVIDIA(0): LG L1953HR (DFP-1) (--) NVIDIA(0): LG L1953HR (DFP-1): 330.0 MHz maximum pixel clock (--) NVIDIA(0): LG L1953HR (DFP-1): Internal Dual Link TMDS (II) NVIDIA(0): Assigned Display Device: DFP-1 (II) NVIDIA(0): Validated modes: (II) NVIDIA(0): "1280x1024" (II) NVIDIA(0): "1024x768" (II) NVIDIA(0): "800x600" (II) NVIDIA(0): "640x480" (II) NVIDIA(0): Virtual screen size determined to be 1280 x 1024 (--) NVIDIA(0): DPI set to (95, 96); computed from "UseEdidDpi" X config (--) NVIDIA(0): option (==) NVIDIA(0): Enabling 32-bit ARGB GLX visuals.Я в замешательстве, почему неверно определяеться температура видеоядра?
RivaTuner нормально всё строит.
У меня тоже так же пишет.
Только GPU с другой помойки (GTS 250) ;)
Ну а что Вам напишет
nvidia-settings -q GPUCoreTempпро температуру чипа?
willy написал(а): Только GPU
chupz@chupz ~ $ nvidia-settings -q GpuCoreTemp
Attribute 'GPUCoreTemp' (chupz.homeunix.com:0.0): 49. 'GPUCoreTemp' is an integer attribute. 'GPUCoreTemp' is a read-only attribute. 'GPUCoreTemp' can use the following target types: X Screen, GPU.Вот такое и пишет. Тутт всё корректно.
Это же отлично!
Ну а чтобы видяха не перегрела Вашу комнату (ибо спать в жаре - одно неудобство), можно изготовить вот такой костыль:
1.Ставим app-admin/conky
2.Их же и настраиваем.
3.После чего допишем в .conkyrc что-то в стиле Лиона Фейхтвангера (шутко):
${if_match ${exec nvidia-settings -q GPUCoreTemp | head -2 | /bin/awk '{print $4}' | sed -e 's:\.::'} > 90 ${exec /sbin/shutdown -r now}}$endifПравда, не знаю, как там коньки с кедами дружат...
Только накой мне этот скрипт
Только накой мне этот скрипт с теми-же коньками? Я не на температуру видимокарты жалуюсь а на шум куллера, по моим соображениям, неверно управляемого драйвером видимокарты из проприетарного модуля, что-то типа того.
По-теме: вот почему-же тогда nvclock неверно определяет температуру-то?И следовательно, я так думаю, драйвер тоже неверно её (температуру) определяет.
UP: наверное перефразирую вопрос: "ЧТО управляет скоростью вращения куллера видеокарты и как на него воздействовать???"
Ну можно написать багрепорт
Ну можно написать багрепорт разрабам или купить Zalman VF900 и горя не знать.
Можно ещё и "поддонатить" разрабов :)
Что-то на сайте nvclock'а некоторое затишье. Последний пост датируется январём сего года.
Хотя на рынок уже 4-х тысячная "версия" видеокарт вывалилась... Как я понимаю,
"реверс-инжениринг" при написании nvclock по полной канает, а это дело ой не лёгкое...