Dziś przyszła pora pokazać kilka komend/trików dla początkujących które mogą się przydać:

1. Często chcemy np. odmontować /home a tu „zasoby używane”, patrzymy a tu wisi kilka procesów na /home użytkownika: franek i co robimy ?

pkill -u franek

2. Mamy mocno naśmiecone w wielu katalogach znajdują się pliki o które w nazwie mają „temp” nie chcemy ich:

rm -rf `find . -name "*temp*"`

3. Chcemy sobie zrobić backup systemu za pomocą LiveCD ale nie chcemy aby backup zapamiętał nam /home:

Oczywiście montujemy system plików np. do /mnt/moj_system wchodzimy do /mnt/moj_system i:

tar -cvfp /media/pendrive/backup-2011.tar --exclude=/mnt/moj_system/home/* *

Możemy dodać parametry:

-z (pakowanie za pomocą GunZip, słaba kompresja wysoka prędkość)

-j (pakowanie Bzip2, średnia kompresja, średnia prędkość)

-J (pakowanie XZ/LZMA2, wysoka kompresja, niska prędkość)

–lzma (pakowanie LZMA, wysoka kompresja, niska prędkość)

4. Możemy też wykonać takową komendę na działającym systemie ale musimy dodać parametry podświetlone na zielono:

cd / && tar  -cfp /mnt/prodrive/backup-2011.tar --exclude=/sys/* --exclude=/proc/* --exclude=/dev/* \
--exclude=/tmp/* *

Możemy też dodać: –exclude=*tmp* aby pominąć pliki/katalogi które zawierają frazę „tmp”, możliwe jest też dodanie -z -j -J –lzma aby kompresować archiwum tar

Proces odwrotny, odzyskania musi być wykonany tylko z LiveCD, nie da się tego wykonać na działającym systemie.

tar -xf /mnt/pendrive/backup-2011.tar -C /mnt/nowy_system

5. Kopiowanie całego systemu na nowy dysk ?

Odpalamy LiveCD, do /old montujemy stary dysk, do /new nowy dysk i

rsync -avz /old/* /new

na działającym systemie:

rsync -avz --exclude=/dev/* --exclude=/sys/* --exclude=/proc/* --exclude=/tmp/* --exclude=/mnt/* /* /mnt/new

6. Obraz dysku lub partycji + kompresja (tylko za LiveCD)

dd if=/dev/sda conv=sync,noerror bs=64K | gzip -c  > /mnt/pendrive/sda.img.gz

Aby odzyskać:

gzip -c /mnt/pendrive/sda.img.gz | dd of=/dev/sda conv=sync,noerror bs=64K

Oczywiście w tym procesie robimy backup całego dysku razem z MBR, tablicą partycji itd. możemy zastąpić sda przez sda1 i zamiast backup-u całego dysku mamy backup pierwszej partycji.

7. Zliczanie miejsca które zajmują nam pliki w jakimś katalogu:

du -h --max-depth=1 /home/franek

Rezultat będzie wyglądał np. tak:

1M /home/franek/smieci
11G /home/franek/filmy
19G /home/franek/dane
1M /home/franek/wazny_plik.txt
1M /home/franek/plik.sh
30G /home/franek/

8. Jesteśmy na wakacjach na w domu mamy np. NAS które często gęsto mają preinstalowanego Linux-a np. OpenWRT i chcemy pobrać z niego dane.

Logujemy się na router za pomocą ssh i pisemy:

opkg update && opkg install openssh-sftp-server

A na naszym linux-e:

sshfs root@ip_lub_host_naszego_NAS-a:/mnt/dane /mnt/domek -o sftp_server=/usr/libexec/sftp-server

9. Nasz pendrive ma źle stworzoną partycję lub są problemy z systemem plików

dd if=/dev/zero of=/dev/sdb
cfdisk /dev/sdb

Oczywiście /dev/sdb to musi być plik odpowiadający naszemu nośnikowi

10. Jeżeli nie wiecie pod jakim plikiem znajduje się dysk lub nośnik USB którego właśnie włożyliście możecie zawsze wywołać:

dmesg | tail

zaraz po jego wsadzeniu.

11. Szybkie czyszczenie danych EXIF z JPEG ? No bo po co ktoś ma wiedzieć jaki mamy aparat i gdzie robimy fotki ?

jhead -purejpg *.jpg

cdn.

Tagged with:
 

Oto krótki poradnik dla tych którzy mają dylemat z wyborem typu systemu operacyjnego na swój komputer.

Na początek schemat i zero wyjaśnień:

A teraz wyjaśnienia:

  • Procesor: ilość rdzeni nie ma większego znaczenia, zarówno system 64bit-owy jak i 32bit-owy może ale nie musi obsługiwać więcej niż jeden rdzeń/procesor. Windows XP dopiero od dodatki SP1 obsługuje procesory z więcej niż jednym rdzeniem, Vista/7 obsługują je od początku swojego istnienia. Według wielu testów Windows XP SP3 słabiej radzi sobie z rozdzielaniem zadań między rdzenie niż Windows Vista/7, te same testy pokazały też że różnice są na poziomie błędu statystycznego, dopiero gdy ilość rdzeni jest większa niż 2 a do tego dochodzą technologię jak Hyper Threading różnice zaczynają być widoczna ale nadal jest mniejsza niż 2-3%.
  • Dysk twardy: rozmiar dysku nie ma znaczenia, ponieważ rozmiar jaki obsługuje Windows XP x86 jest większa od nawet najnowszych dysków twardych do zastosować domowych. Oczywiście system 64bit-owy obsługuje dużo większe dyski.
  • Pamięć RAM ma znacznie, system 32bit-owy potrafi adresować do 4GB aby posiadać więcej pamięci musimy posiadać system 64bit-owy. Do pamięci RAM wlicza się też RAM który posiada karta graficzna, w rezultacie 32bit-owy Windows widzi od 3 do 3,9GB. Przy wyborze systemu musimy pamiętać że system 64bit-wy obsługuje więcej pamięci ale też wymaga jej więcej, w rzeczywistości potrzebuje jej o około 25-50% więcej niż 32bit-wy, jeżeli posiadacie coś w okolicy 1-2GB zalecam Windows XP x86, mimo że wiele mało doświadczonych osób twierdzi że wymagania 7 są identyczne jak XP, to prawda jest zupełnie inna. W7 wymaga dużo więcej, może nie tyle co Vista ale więcej, z czasem gdy system „rośnie” przy małej ilości RAM-u robi się powolny a to bardzo utrudnia pracę, dlatego tylko osoby posiadające co najmniej 4GB RAM-u powinny wybierać system 64bit-wy.
    • XP czy 7: według mnie 7 jest tylko dla tych którzy posiadają 4GB RAM-u albo grają w gry wymagające DX10 lub 11. Siódemka wymaga więcej pamięci a po co się męczyć ? XP mimo swojego wieku był cały czas modernizowany, działa dużo szybciej i wymaga dużo mniej, z odrobiną własnego wkładu może być bardziej zabezpieczony niż 7. Internet, biuro = Windows XP!
  • Linux: tu sprawa jest prosta, rozwiązana za pomocą modułu (high memory support) który jest w stanie użyć całych 4GB a nawet więcej n(do 64GB) nawet na 32bit-wym systemie. Jedyny problem to limit per proces do 4GB. Dlatego osoby które mają coś w okolicy 4GB a nie mają ochoty użerać się z problemami jakie niesie 64bit-owy system (java, flash, multilib, aplikacje CloseSource, stare aplikacje) , spokojnie mogą używać 32bit-owego distra z HMS.

Mam wielką nadzieję że przybliżyłem wam temat i pozwoli wam to wybrać system idealny dla waszej maszyny i dla was. Jestem człowiekiem, nie pisarzem, nie humanistą, robię błędy, zapominam… więc jeżeli coś z tym tekstem nie jest halo, dajcie znać.

Tagged with:
 

UWAGA! Backtrack 5 zawiera sterownik ath9k_htc! Zaktualizuj system!

OPIS JEST NIEAKTUALNY!

 

Okazuje się że wreszcie się można użyć popularnej linii kart firmy TP-Link pod Linux-em! Mówię tu o modelach:

TP-Link TL-WN722N
TP-Link TL-WN721N
TP-Link TL-WN422G v2
TP-Link TL-WN421G v2

 

Długo trzeba było czekać ale wreszcie sterownik ath9k_htc jest gotowy do działania. Instalacja jest banalnie prosta:

su root

wget http://wireless.kernel.org/download/compat-wireless-2.6/compat-wireless-2.6.tar.bz2

 

tar -xjf compat-wireless-2.6.tar.bz2

 

cd compat-wireless-2.6

 

./scripts/driver-select ath9k_htc #jeżeli chcemy tylko ath9k_htc dla AR9271 lub pomijamy ten krok jeżeli chcemy odświeżyć wszystkie sterowniki, jeżeli chodzi o BackTrack 4 należy pozostawić oryginalne sterowniki ponieważ BT4 modyfikuje sterowniki.

 

make

make install

wget http://backtrack.pl/files/ar9271.fw

mv ar9271.fw /lib/firmware

modprobe ath9k_htc

 

Efekt:

 

usb 1-5: firmware: requesting ar9271.fw
usb 1-5: ath9k_htc: Transferred FW: ar9271.fw, size: 51280
ath: EEPROM regdomain: 0x809c
ath: EEPROM indicates we should expect a country code
ath: doing EEPROM country->regdmn map search
ath: country maps to regdmn code: 0x52
ath: Country alpha2 being used: CN
ath: Regpair used: 0x52
cfg80211: Calling CRDA for country: CN
Registered led device: ath9k-phy0::radio
Registered led device: ath9k-phy0::assoc
Registered led device: ath9k-phy0::tx
Registered led device: ath9k-phy0::rx
usb 1-5: ath9k_htc: USB layer initialized
usbcore: registered new interface driver ath9k_hif_usb
cfg80211: Regulatory domain changed to country: CN
(start_freq – end_freq @ bandwidth), (max_antenna_gain, max_eirp)
(2402000 KHz – 2482000 KHz @ 40000 KHz), (N/A, 2000 mBm)
(5735000 KHz – 5835000 KHz @ 40000 KHz), (N/A, 3000 mBm)

Wszystkie wymienione modele działają dobrze, ale bez rewelacji… do normalnego użytkowania wystarczy na fajerwerki przyjdzie jeszcze poczekać, ale niestety muszę rozczarować 10% użytkowników, wszystkie wymienione karty po zmianie adresu MAC przestają działać! Koszmar… Tak że wardriving na tej karcie raczej nie przejdzie.

Znane problemy:

usb 1-5: ath9k_htc: Firmware – ar9271.fw not found #rozwiązanie: pobierz firmware z linku który podaje na mojej stronie.

Instalacja samego ath9k_htc na bt4 powoduje że inne sterowniki wifi segmentują.

Źródło danych:

 

http://wireless.kernel.org/en/users/Drivers/ath9k_htc
Firmware – http://git.kernel.org/?p=linux/kernel/git/dwmw2/linux-firmware.git;a=tree
compat-wireless – http://wireless.kernel.org/download/compat-wireless-2.6/

 

 

 

Tagged with:
 

Wiele osób ma bardzo ciekawe sposoby na stwierdzenie czy ich dysk funkcjonuje poprawnie czy też nie.

W top10 znajdują się takie programy jak chkdsk, scandisk czy hdregenerator.

Mało kto wie że każdy współczesny dysk posiada system SMART (Self-Monitoring, Analysis and Reporting Technology) który mało że potrafi poinformować system o stanie dysku ale także sam potrafi wykonać auto-test (self-test). Niestety system operacyjny windows nie monitoruje stanu dysku (parametrów SMART) ani też nie potrafi uruchomić self-test-u, jedyne co możemy wykonać z poziomu samego systemu to chkdsk z parametrem /r który uruchamia wyszukiwanie uszkodzonych sektorów.

Niestety większość osób ogranicza się do chkdsk a niektórzy „profesjonaliści” w niektórych „profesjonalnych serwisach”, z którymi się spotkałem na terenie śląska, używają hdd regeneratora czyli „narzędzia” o magicznych właściwościach do magicznego naprawiania badsektorów przez ich wielokrotne zapisywanie. Bardzo ciekawe że często mu się udaje, a parametr „Reallocated Sector Count” cyka. W tym momencie mały apel do klientów takich „serwisów”.

Jeżeli widzicie że ktoś testuje dyski lub chce je naprawiać takim programem to zalecam wziąć szybko nogi za pas, a taki „serwis” spalić 🙂

Jeżeli naprawdę chcecie przetestować swój dysk polecam użyć PartedMagic. Jest to system operacyjny ( Linux ) który można odpalić z płyty ( LiveCD ) lub zainstalować na dysku, jednak w naszym przypadku takiej konieczności nie ma. Do testu potrzebujemy programu smartmontools który został zawarty na płycie PartedMagic.

Program ten odczytuje wszystkie parametry dysku twardego, pokazuje nam informacje o błędach z przeszłości które są zapisywane na dysku, daje nam też możliwość uruchomienia self-test które nawet na działającym systemie sprawdza dysk, a następnie jeżeli wystąpią błędy pokazuje LBA na którym wystąpił błąd.  Dzięki niemu możemy stwierdzić gdzie znajduje się błąd, jeżeli LBA błędów się zmienia możemy przypuszczać że dysk jest niestabilny i nie nadaje się do użytku.

Smartmontools wyświetla nam też informacje na temat naszego dysku, takie jak np. ilość bad sektorów, ilość godzin która dysk przepracował, ilość uruchomień dysku, ilość błędów poprawionych i nie poprawionych. Wygląda to tak jak na fotce 1 i 2 poniżej, oczywiście smartmontools jest narzędziem które nie posiada interfejsu graficznego na na screenach pokazuje „GSmartControl” czyli GUI dla Smartmontools.

Pierwszy screen pokazuje przebieg self-test, drugi wszystkie parametry dysku, ostatni menu z którego uruchamia się GSmartControl.

Poza w/w narzędziem PartedMagic zawiera też:

GParted – narzędzie do partycjonowania dysku które posiada możliwości ich przemieszczania.

badblocks – testuje uszkodzone bloki dysku bez niszczenia danych

testdisk – narzędzie do odzyskiwania partycji i danych

oraz: dd, g4l, ClamAV, rsync, truecrypt, pcman

Dla leniwych przeciwników Linux dodam że smartmontools bez graficznej nakładki jest dostępne pod Windows, niestety nie działa tak dobrze jak pod linux-em.

Jest też kilka innych programów dla platformy Windows takie jak np. HD Tune czy Victoria.

HD Tune /Pro – według mnie to benchmark a nie program do testowania dysków, ale zawsze to coś.

Victoria – bardzo dobry amatorski program który robi praktycznie wszystko to co smartmontools, na dodatek dla mniej zaawansowanych użytkowników interpretuje niektóre parametry w przystępny sposób. Potrafi też uruchomić self-test, którego np. HD Tune nie potrafi uruchomić.

ActiveSMART – Bardzo dobry niestety płatny program do monitorowania stanu dysku, niestety nadal brakuje niektórych opcji w stosunku do smartmontools.

HDD Guardian (2013) – NOWY ciekawy program do testowania dysków, jest on połączeniem narzędzi systemu Windows z narzędziem SmartMonTools z Linux-a. Aktualnie NAJLEPSZY z wymienionych.

Na koniec bardzo pomocna interpretacja parametrów SMART-a:

  • 02 Throughput Performance – Łączna (ogólna) sprawność dysku. Jeśli wartość tego atrybutu się obniża jest duża szansa, że zbliżają się problemy z dyskiem. Nie jest to błąd krytyczny. Niestety nie każdy program monitoruję tą wartość.
  • 03 Spin Up Time – Średni czas na rozkręcenie (rozpędzania) tależy (od 0 obr/min do pełnej prędkości). Wartość RAW tego atrybutu wyraża czas w sekundach lub milisekundach. Zależnie od modelu dysku. Nie jest to błąd krytyczny, ale wysokie czasy rozpędzania talerzy świadczą o pojawiających sie problemach z układami mechanicznymi dysku.
  • 04 Start/Stop Count – Wartość RAW tego atrybutu określa liczbę cyli start/stop dysku. Nie jest to błąd krytyczny, ale w połączeniu z parametrem 09 Power-On Time Count i 10 Spin Retry Count daje obraz o sposobie użytkowania dysku. Czas startu dysku powinien być zblizony do ilości prób rozpędzania talerzy. Zbyt duże różnice pomiędzy tymi parametrami swiadczą o problemie z zasilaniem dysku, który uruchamia sie poprawnie, ale nie rozpędza talerzy. Nie tylko jest to wina zasilania.
  • 05 Reallocated Sectors Count – Ilość realokowanych sektorów (określanych również jako: „bady”, „bad sectors”). W momencie gdy dysk napotyka błąd odczytu/zapisu/weryfikacji, oznacza ten sektor jako realokowany i przenosi dane do specjalnego zarezerwowanego obszaru (obszaru rezerwowego). Proces ten jest również określany mianem remapowania a realokowane sektory określa się remapami. To właśnie dlatego, na nowoczesnych dyskach, nie widzimy „bad bloków” podczas testów powierzchni – jest to błąd krytyczny, świadczy o powstaniu logicznych lub fizycznych „badów”. Odczytując tą wartość możemy stierdzić czy posiadamy na dysku „bad sectory”.
  • 06 Read Channel Margin – Rezerwa kanału podczas odczytu danych. Funkcja tego atrybutu nie jest objęta specyfikacją. Nie informuje o błędzie krytycznym.
  • 07 Seek Error Rate – Częstość błędów wyszukiwania głowic magnetycznych. W razie uszkodzenia mechanicznego systemu pozycjonowania, uszkodzenia serwa albo termicznej rozszerzalności dysku, ilość błędów wyszukiwania wzrasta.
  • Więcej błedów wyszukiwania oznacza pogarszanie się stanu powierzchni dysku i podsystemu mechanicznego dysku. Nie jest to błąd krytyczny, ale warto go monitorować.
  • 08 Seek Time Performance – przeciętna wydajność operacji wyszukiwania głowic magnetycznych. Jeśli wartość atrybutu maleje, jest to oznaka problemów z podsystemem mechanicznym dysku.
  • 09 Power-On Time – Ilość godzin w stanie zasialnia. Wartość RAW atrybutu odpowiada łącznej ilości godzin (lub minut, sekund, w zależności od producenta) przepracowanych przez dysk. Zmniejszenie się tej wartości do poziomu krytycznego (threshold) wskazuje na zmniejszenie się parametru MTBF (średni czas między awariami). Niemniej, w rzeczywistości, nawet jeśli MTBF zmaleje do zera, nie oznacza to że zasoby MTBF całkowicie się wyczerpały i dysk przestanie działać.
  • 0A Spin Retry Count – Ilość ponowień prób rozpędzenia tależy. Atrybut ten przechowuje łączną ilość prób uruchomienia tależy przed osiągnięciem pełnej szybkości obrotowej (pod warunkiem, że pierwsza próba nie powiodła się). Spadek tego atrybutu jest oznaką problemów z podsystemem mechanicznym dysku.
  • 0B Recalibration Retries– Atrybut ten wskazuje liczbę rządań rekalibracji (po warunkiem, że pierwsza próba nie powiodła się). Spadek tego atrybutu jest oznaką problemów z podsystemem mechanicznym dysku.
  • 0C Device Power Cycle Count– Atrybut ten określa łączną ilość pełnych cykli zasilania dysku.
  • 0D Soft Read Error Rate – Jest to ilość programowych błędów odczytu występujących podczas odczytu danych z powierzchni dysku.
  • 0E G-Sense Error Rate – częstotliwość występowania błędów spowodowanych wstrząsem. Atrybut ten przechowuje wskazania czujnika przeciążeń i podaje łączną ilość błędów występujących jako rezultat wewnętrznych przeciążeń (upuszczenia dysku, niewłaściwej instalacji, i tp.).
  • 0F Power Cycle Count – Atrybut ten określa ile razy dysk był wyłączany. Właściwie to określa ilość naprawionych cykli włanczania dysku. W połączeniu z parameterm 04 Start/Stop Countinformuje o problemie z zasilaniem dysku.
  • 0G Load/Unload Cycle Count – Ilość cykli parkowania/wyparkowania ze strefy parkowania (Landing Zone).
  • C2 Temperature – Temperatura dysku twardego. Wartość RAW tego atrybutu podaje wskazania wbudowanego czujnika ciepła (w stopniach Celsjucza). Czesto zdaża się ,że czujnik temperatury jest uszkodzony więc wartość ta jest bardzo duża lub wogóle nie monitorowana.
  • C4 Reallocation Event Count – Ilość operacji remapowania (przenoszenia danych z uszkodzonego sektora do specjalnego zarezerwowanego obszaru – obszaru rezerwowego). Wartość RAW tego atrybutu określa łączną ilość prób transferu danych z realokowanego sektora do obszaru rezerwowego. Liczone sa zarówno próby udane jak i nieudane. Jest to nie wątpliwie jeden z wżniejszych parametrów, dzieki któremu możemy usunąć poprzez remap/zerowanie kolejne (będące w drodze) bad sectory.
  • C5 Current Pending Sector Count – Parametr ten określa iczbę sektorów niestabilnych (oczekujących na remapowanie). Dysk podczas próbuy odczytu/zapisu odznaczył te sektory jako niestabilne. Bedą one oczekiwać na remap powierzchni talerz. Jeżeli tego nie zrobimy wówczas dysk przeniesie je do obszaru Reallocated Sectors Count, a tym samym powstaną nowe bad sectory. (Jest to błąd jak najbardziej krytyczny i warto go monitorować.)
  • C6 Off-line Uncorrectable Sector Count – Ilość niekorygowalnych błędów. Wartość RAW tego atrybutu wskazuje łączną ilość niekorygowalnych błędów podczas odczytu/zapisu sektora. Wzrost wartości tego atrybutu wskazuje na ewidentne defekty powierzchni dysku i/lub problemy z podsystemem mechanicznym dysku. Jest to błąd krytyczny, świadczy o poważnym uszkodzeniu tablicy talerza lub nadchodzącym uszkodzeniu mechanizmu dysku.
  • C7 UltraDMA CRC Error Count – Łączna ilość błędów CRC w trybie UltraDMA. Wartość RAW atrybutu wskazuje ilość błędów wykrytych przez CRC (CRC Interfejsu) podczas przesyłania danych w trybie UltraDMA. Wysokie wartości świadczą o uszkodzeniu podzespołów elektronicznych dysku. Jednocześnie parametr ten informuje nas o tym, że dysk ma problemy w komunikacji z kontrolerem (dysk<->płyta<-dysk). Najczęstszą przyczyną pojawiania sie tego błędu jest: uszkodzona wstęga (taśma), fiksujący zasilacz, uszkodzona elektronika dysku, uszkodzona elektronika płyty głównej.
  • C8 Write Error Rate (Multi Zone Error Rate) – Częstość błędów zapisu. Atrybut ten wskazuje na łączną ilość błędów zapisu podczas zapisywania sektora. Im wyższa wartość RAW, tym gorszy stan powierzchni dysku i/lub mechanicznego podsystemu. W połączeniu z parametrem Raw Read Error Rate informuje nas o stanie talerzy, a włąściwie zapisu na ich powierzchni.
Inne parametry jakie monitoruje S.M.A.R.T:
  • Disk Shift – Przesunięcie dysków od osi. Wartość RAW pokazuje jak bardzo dysk został przesunięty. Jednostka miary jest nieznana. UWAGA: Przesunięcie dysków jest możliwym rezultatem silnego uderzenia lub upadku. Niewątpliwie błąd krytyczy.
  • Loaded Hours -Użycie akuratora głowic magnetycznych spowodowane normalną eksploatacją. Liczy się tylko czas działania akuratora.
  • Load/Unload Retry Count – Użycie akuratora głowic magnetycznych spowodowane licznymi wystąpienia operacji takich jak: odczyt, zapis, pozcjonowanie głowic i tp. Liczy się tylko czas gdy głowice były w stanie działania.
  • Load Friction – Użycie akuratora głowic magnetycznych spowodowane tarciem mechanicznych części dysku. Liczy się tylko czas gdy głowice były w stanie działania.
  • Load-in Time – Łączny czas działania akuratora głowic. Atrybut ten wskazuje łączny czas w którym dysk był obciążony (przy założeniu, że głowice były w stanie działania, poza obszarem parkowania).
  • Torque Amplification Count – Ilość prób rozkręcenia tależy dysku.
  • GMR Head Amplitude – Amplituda drgań głowic (GMR-head) w czasie pracy.
  • Head Flying Hours – Czas w jakim głowica jest pozycjonowana.
  • Read Error Retry Rate – częstotliwość występowania błędów podczas odczytu.

Nie każdy dysk musi mieć wszystkie te parametry, niektóre dyski mogą też mieć inne parametry których tu nie wymieniłem.

Każdy parametr ma kilka wartości:
  • Curent – próg wystąpienia błedu
  • Worst – wartość dla modelu dysku
  • Treshold – najgorsza wartość (poziom krytyczny) przy jakiej były problemy odczytu RAW
  • Data – wartość na chwilę obecną

Mam nadzieję że ten krótki prosty tutorial pomoże wam przetestować swój dysk a może pomoże też przy kupnie jakiegoś używanego…

Tagged with:
 

Jest wiele celów dla których chcemy zmienić adres IP, są te dobre i te złe. Dla mniej zorientowanych napiszę do czego nadaje się dany sposób zmiany adresu.

1. Dynamiczny adres IP.

Niektóre usługi takie jak np. Neostrada, Netia Net24, Netia WiMax wymuszają na użytkowniku zmianę adresu co 24h lub co logowanie. Jest to dobre i złe, ponieważ z jednej strony można pobierać pliki z wielu portali mimo ograniczeń, logować się na portale wielokrotnie itp. Niestety dostęp do niektórych usług na zakresach dynamicznych adresów IP jest zablokowany domyślnie przez wielu operatorów, właśnie dlatego że niektórzy nie mają hamulców. Nie polecam jednak robić niczego mało legalnego bo to że adres IP się zmienia nie oznacza że operator nie wie kto i kiedy był na danym adresie. Szczególnie Telekomuna monitoruje tego typu aktywność.

2. VPN – Virtual Private Network a raczej szyfrowane lub nie tunele.

Są to usługi darmowe lub nie, można się do nich połączyć za pomocą odpowiedniego oprogramowania. Po instalacji aplikacje zazwyczaj tworzą w naszym systemie wirtualne urządzenie sieciowe które kieruje cały ruch przez tunel a nie bezpośrednio przez nasze łącze.

Jest kilka usługo dawców należą:

  • Packetix – darmowy, bez reklam, brak limitów transferu, limit prędkości
  • HotSpot Shield – darmowy, masa reklam, brak limitów transferu, brak limitów prędkości
  • Hamachi – darmowy, brak limitów transferu (bardzo polecany ja nie testowałem)
  • UltraVPN – darmowy, wymaga rejestracji
  • CyberGhost – darmowy i płatny z limitami
  • Gpass – darmowy, limity

Jest to bardzo dobry wynalazek jeżeli chodzi o zabezpieczenie swojej prywatności w wielu darmowych HotSpot-ach gdzie nie ma szyfrowania, niestety zazwyczaj czas odpowiedzi zwiększa się diametralnie a niektóre porty/usługi są zablokowane. Często jedyny dostępny port to 80 (http). Plusy są takie że operatorzy to zazwyczaj zagraniczne firmy.

3. Proxy – serwery pośredniczące, jest ich masa, listy takich otwartych serwerów są dostępne z internecie na wielu stronach np. http://www.samair.ru/proxy/ aktualizowane często łatwe do podłączenia.

Wady są takie że 99,9% tych serwerów przewiduje połączenie tylko na 80 port, chyba że to Socks. Nie zapewniają szyforwania. Plusów jest więcej, duża ilość takich proxy, spora anonimowość, brak limitów, lokalizacja w różnych krajach włącznie z chinami, mozambikiem, sporo programów do dynamicznej zmiany serwera proxy a także ich szybkiego testowania.

4. Tor – wirtualana sięc komputerowa implementująca trasowanie cebulowe. Wykorzystuje wielowarstwowe szyfrowanie a ruch pomiędzy routerami jest okresowo zmieniany na inny obwód co skutecznie uniemożliwia analizę. Sieć składa się z dobrowolnych ochotników lub wyznaczonych serwerów. Wada to bardzo różna raczej słaba przepustowość, spory ping. Zalety to całkowita prywatność, brak możliwości namierzenia źródła, duże możliwości, łatwe połączenie SOCKS.

Zastosowanie bardzo szerokie, ale nie nadaje się do ściągania dużych plików, grania w gry itp.

KONIEC, życzę miłego oglądania MegaVideo ;P

Tagged with:
 

Szybki tutorial jak uruchomić RaLink RT2770

aktualizacja:

apt-get update

apt-get upgrade

modprobe rt2800usb

GOTOWE 🙂

rt2800usb dostępne jest od jądra 2.6.33 bt4 został opublikowany z 2.6.32

Tagged with:
 

Dane tutaj zawarte są mocno nie aktualne z powodu zmian w systemie Linux (w tym też Backtrack) oraz modyfikacji które zostały dokonane na sterownikach Windows i samym sprzęcie przez dodanie nowych rewizji do swojej oferty.


Tools or Toys ?!

Wiele osób szuka dobrych kart do wardrivingu lub też po prostu silnej karty WiFi aby swobodnie korzystać z internetu w okolicy swojego domu.

Na wielu aukcjach sprzedawcy reklamują swoje produkty i podają „fikcyjną” moc jaką może wyzwolić kart, ostatnio trafiają się już modele które reklamują się jako 1,5W (1500mW) niestety po pierwsze nie jest to możliwe po drugie im większa moc tym mniejsza czułość.

Dla kart bezprzewodowych istotnymi parametrami poza mocą jest też: czułość, zysk anteny, rodzaj anteny itd.

W związku z tym postanowiłem przetestować kilka „kultowych” modeli kart WiFi na USB:

1. Tonze UW-6200C1 (Ralink RA73USB) 200mW

2. Tonze UW-6200R/H (Realtek RTL8187L) 200mW

3. Edimax EW-7318USg (Ralink RA73USB) <100mW

4. Alfa Network AWUS036H (Realtek RTL8187L) 500mW (1000mW?!)

5. Alfa Network AWUS050NH (Ralink RT2770F) 500mW

Oraz dwa/jeden model który dostał pseudonim „zaprzepaszczone marzenia”

1. TP-Link WN422G (Atheros RA9271) (100mW)

2. TP-Link WN722N (Atheros RA9271) (100mW)

i na konieć modele zintegrowane w laptopach:

1. RTL8187L (Aristo) (<100mW)

2. Atheros ar5007 (eeePC) (<100mW)

Na początek dodam że WN422G i WN722N to dokładnie ta sama karta na tym samym chipie różnica polega tylko na tym że RA9271 został ograniczony do 52Mbit w wersji 422G, dlatego testuje tylko wersję WN422G

  • Test pierwszy (moc)

Tu wygrywają Alfy ich sygnał jestem w stanie odebrać nawet dobry kawałek od domu, niestety komunikacja jest możliwe tylko wtedy gdy obie strony posiadają tak silną kart, w przeciwnym wypadku sieć jest widoczna ale nie można nic przez nią przepuścić.

  • Test drugi (czułość)

Niestety edimax, tonze UW-6200C1 (ralink) leżą i kwicza, Tonze UW-6200R/H oraz Alfy są dużo lepsze, większa moc pozwala im nadać sygnał dalej a w rezultacie odebrać słabą odpowiedź od sieci z którymi nie są w stanie nawiązać połączenia. Gdy tylko nasłuchujemy Tonze oraz Alfy mają bardzo zbliżoną czułość, delikatnie czulsza jest Tonze. Ten test wygrywa Atheros i oba tplink-i, nie odbierają tyle sieci co Alfa czy Tonze (rtl8187) ale z większą ilością tych które widzą są w stanie nawiązać funkcjonalne połączenie. W liczbach wygląda to mniej więcej tak że Alfa widzi 30 sieci z czego z 15 jest w stanie nawiązać połączenie, Atheros widzi 25 z czego połączenie nawiązuje z 20. Ale tu muszę dodać że Alfa (RTL8187L) czasem zachowuje się dziwnie, często w iwconfig wlan0 pokazuje się moc sygnału -1 albo coś bardzo silnego ala. -10 do -15 a mimo to połączenie nie może być nawiązane, gdy podepnie się inna kartę okazuje się że sieć jest odbierana na poziomie -80dbm. Takie zachowanie zaobserwowałem też na Tonze (RTL8187L) ale znacznie rzadziej. Pozostałe karty są pozbawione tego typu dolegliwości mam tu na myśli także Alfe AWUS050NH na Ralink-u.

  • Test trzeci (stabilność sygnału)

Królem jest tu stary Atheros AR5007 na drugim miejscu TP-Link WN422G (Atheros RA9271). 422G jest na drugim bo trafia się czasem nie wiadomo dlaczego mały lag. Wszystkie Ralink-i charakteryzują się dobrą jakością połączenia i przyzwoitą stabilnością. Realtek jest tu na dnie, często mimo że warunki otoczenia się nie zmieniają połączenie zostaje zerwane. Gdy moc sygnału spada niżej 50% przerwy w połączeniu trafiają się zbyt często.

Wykres pokazuje średnią mocy sygnału w odstępach 5 sekundowych przez około 15 minut, połączenie nawiązane było z programowym Access Point-em na chip-ie Prism2.5 który był w odległości około 600m w linii prostej bez przeszkód terenowych na zwykłej antenie 3-5dbi. Wniosek: Mimo prawie trzy krotnej przewagi alfy nad Atheros-em moc sygnału od AP jest na bardzo zbliżonym poziomie, po dokładnej analizie wychodzi jednak że linia trendu Atheros-a wychodzi w okolicy -43dbm a u alfy -47,5dbm sytuacja się skomplikowała gdy zamiast anteny 2-3dbi zastosowałem Netus Yagi 16dbi a AP dostał antenę sektorową 19dbi a odległość zwiększyła się do około 1-1,5km! Sygnał oczywiście był mocniejszy oscylował w okolicy -40dbm ale różnica pomiędzy Alfą a Atheros-em zniknęła i wynosiła dokładnie tyle ile błąd std. przy 1000 prób. Ta sytuacja zmusiła mnie do wykonania próby z przeszkodami, w budynku ustawiłem AP na Atherosie 400mW z anteną dokólną 7dbi Alfa(RTL) i Atheros dostał patyk 2-3dbi. Efekt Alfa na granicy -85dbm Atheros -80dbm! Atheros nawiązał połączenie Alfa też ale Alfie nie udało się nic przesłać! Co ciekawe AP pokazywał że sygnał od Alfy jest na poziomie -70dbm! (MOC TO NIE WSZYSTKO!)

  • Test czwarty (oprogramowanie/wsparcie/możliwości)

Realtek działa zawsze wszędzie, sterowniki są bardzo dobre nawet na linux-ie.

Ralink działa także wszędzie, sterowniki na linux-a są dobrze nawet lepsze niż Realtek-a.

Atheros AR9271 (TP-Link WN422G) jak już wcześniej napisałem kart wiele osób nazywa „zaprzepaszczone marzenia” a to dlatego że po zmianie adresu MAC karta przestaje nadawać! Koszmar! Sterowników pod linux-a nie ma! (madwifi nie wspiera kart na USB) jedyny istniejące support jest w fazie wczesnego rozwoju (ath9k_htc) jedyne co działa to podnoszenie interfejsu, do dziś nie udało mi się przecisnąć przez nią jednego bajta. Nie mam informacji czy pod linux-em karta też przestaje nadawać po zmienię mac.

Atheros AR5007 (eeePC) działa dobrze, sterownik dla linux-a jest przyzwoity.

  • Test piąty (wykonanie)

Tonze to dziwna firma bo jedyne co jest na obudowie to logo firmy, zero nazwy po prostu „802.11g Wireless LAN USB Adapter” jakość wykonania 3/10

Alfa bardzo ładnie wykonana, ciekawa unikalna obudowa. 8/10

TP-Link czarno biały design mi osobiście przypadł do gustu, plastiki bardzo przyjemne jedyne co mi się nie podoba to dioda która świeci przez obudowe 9/10

Edimax ma identyczny kształt obudowy jak  Tonze UW-6200C1 ale plastik z którego jest wykonany jest dużo lepszy.

Wewnętrzne karty wykonane są identycznie ale Realtek czasem montuje w swoich kartach konektor do wewnętrznej anten, moja wersja Atheros-a takiego nie posiada.

  • Test czwarty (cena vs. wartość)

Tonze, Edimax, TP-Link oraz wewnętrzne modele kosztują mniej więcej tyle samo (~40zł) na rynku wtórnym Tonze wolniej traci na wartości. Sprawa ma się troszkę inaczej jeżeli chodzi o Alfy, których cena jest ogromna (300-100zł) a wartość jest zbliżona do pozostałych kart bo wnętrzności różnią się nieznacznie, na 100% nie są warte 300zł! Paranoja.

  • PODSUMOWANIE:

Jeżeli szukasz karty aby mieć internet na większe odległości polecam TP-Link-a bo jest najstabilniejszy, najczulszy a zarazem udało mi się uzyskać użyteczne połączenie dzięki tej karcie na dużo większą odległość niż dzięki Alfie.

Jeżeli chcesz nękać sąsiadów polecam Tonze  UW-6200R/H bo ma przyzwoitą czułość działa z Backtrack 3/4 i nie kosztuje za dużo. (Wersja UW-6200C1 jest gorsza od R/H, jest mniej czuła i wydaje się być słabszą. RTL8187 wygrywa z RA73USB

Jeżeli szukasz karty do laptop-a polecam Atheros-a 5007 bo ma dużo lepsze parametry niż Realtek. Ja osobiście wymieniłem sobie RTL na Atherosa w moim Aristo (7″) który posiada wewnątrz dwa porty USB!  W normlanym laptopie z miniPCi/e także polecam Atheros-y szczególnie ath9k (9XXX) które bardzo dobrze działają nawet pod linux-em. (Dla linux-a jedyny problem to przejście po USB)

Edimax według mnie jest troszeczkę słabsza i mniej czuła niż Tonze C1 który wygląda identycznie ale różnica jest znikoma.

Alfy polecam osobą które mają za dużo pieniędzy i chcą kupić coś co i tak nie jest w stanie nawiązać dużo lepszego połączenia niż tańsze modele.

Sprzęt:

Dwa komputery typu desktop, netbook Aristo, netbook eeePC, AP TP-Link  WA5110G 400mW, trzy antena 9dBi, kilka patyków 2-6dBi, dwie anteny kierunkowe 16dBi, Sektor 19dBi

Oprogramowanie:

OS: 3x Windows XP Pro, Arch Linux, 2x Gentoo Linux Soft: Aircrack, kismet, wireless-tools, wireshark, mrtg, wtan, netstumbler, tcpdump, iftop, ncftp, netcat, nmap, ping, WirelessMon, AirMagnet WiFi

Niedługo przedstawię nowy test, kart WiFi pod linux-em.

ps.

Jeżeli ktoś chciał by kupić używaną Alfę 500mW chętnie sprzedam, posiadam 7 sztuk.

EDIT 2010-01-10:

Nie aktualne, wszystkie karty sprzedane.

EDIT: 2010-05-20:

Atheros AR 9271 z działa już pod linux-em, zapraszam do przeczytania małej recenzji:

http://backtrack.pl/2010/06/01/linux-jak-uruchomic-tp-link-a-wn722n-lub-wn422g-pod-linux-em-ar9271-ath9k_htc/

Krótki test:

http://backtrack.pl/2010/06/08/linux-test-wn722-wn422g-atheros-ar9271/

 

 

Tonze 200mW :)

Tagged with:
 

Quake 1 zrzut ekranu

Mała podpowiedz dla osób które szukają dobrego terminala stylizowanego na konsolę z gry Quake.

Aplikacji tego typu jest sporo niestety większość z nim ma wiele wad szczególnie dla osób które nie używają środowisk takich jak KDE czy Gnome.

Kuake, Yakuake – terminal dla środowiska KDE

Zalety:

  • bardzo rozbudowany (5/5)
  • działa szybko i sprawnie (4/5)
  • prosta konfiguracja (3/5)
  • ładny wygląd (4/5)

Wady:

  • wymaga bibliotek KDE
  • uruchamia w tle kilka daemonów kde i wymaga ich do działania
  • wymaga sporo pamięci

Guake – terminal dla środowiska Gnome

Zalety:

  • lekki i szybki (4/5)
  • prosty wygląd (3/5)
  • prosta konfiguracja (3/5)

Wady:

  • wymaga bibliotek Gnome
  • wczesna faza rozwoju
  • brak wielu opcji
  • niestabilność

yeahconsole – terminal używający rxvt-unicode

Zalety:

  • szybki i lekki (5/5)
  • oszczędny (4/5)
  • konfiguracja w pliku (2/5)
  • dla wielbicieli rxvt bardzo wygodny (3/5)

Wady:

  • niestabilny
  • wymaga rxvt lub xterm
  • trudna konfiguracja
  • czasem nieprzewidywalny
  • brak niektórych skrótów klawiszowych
  • braki w możliwościach konfiguracji

Tilda – emulator terminala dla wszystkich wm

Zalety:

  • lekki i szybki (4/5)
  • oszczędny (4/5)
  • prosta konfiguracja (5/5)

Wady:

  • niestabilny
  • nie rozwijany
  • braki w możliwościach konfiguracji
  • dziwne zachowania pod Gnome
  • sterowanie klawiaturą nie daje się konfigurować
  • jedyny skrót jaki można ustawić to opuszczanie i chowanie
  • nie działa alt+F1-10
  • nie działa ctrl+F1-10
  • sam terminal jest dosyć wolny (efekt ala framebuffer bez zawijania na ogrmonym ekranie)

stjerm – lekki emulator terminala

Zalety:

  • praktycznie brak zależności (5/5)
  • szybkość i lekkość (5/5)
  • łatwa konfiguracja (3/5)
  • wiele skrótów klawiszowych (4/5)
  • działa poprawnie ctrl + F alt +F (5/5)
  • zajmuje w sumie około 80kb (5/5)
  • stabilność (5/5)

Wady:

  • wczesna faza rozwoju, braki w opcjach (wszystkie podstawowe opcje są już dostępne)

Jeżeli ktoś z was znajdzie jakiś inny terminal którego nie opisałem, dajcie znać!

Tagged with:
 

firefox-burnW sieci można odszukać wiele poradników jak zmusić firefox-a do szybkiego ładowania stron, szybkiego otwierania menu etc. To bardzo miłe że ktoś o tym myśli ale podejście do tego zazwyczaj ogranicza się do dwóch rzeczy:

1. powiększyć ilość połączeń w jednym czasie do max.

2. powiększyć buffer w pamięci do max.

3. powiększyć buffer na dysku do max.

4. zmniejszyć opóźnienie wyskakiwania okienek do min.

Może to i ma jakiś sens, ale nie wiem czy przypadkiem on gdzieś nie uciekł… dlaczego? Kiedyś Firefox był dosyć lekki większość komputerów odpalała go szybki a z pamięci zajmował bardzo mało, dziś już nie można tak powiedzieć. Firefox jest ciężki, wolny i niesamowicie rozbudowany, przez co nawet mój komputer który ma dwa rdzenie po kilka GHz a do tego 6GB ram-u sprzętowy RAID5 na trzech dyskach, zaczyna mieć poważne problemy gdy załaduje 10-15 stron na kilku zakładkach… a gdy te strony mają masę ogromnych obrazków to firefox potrafi łyknąć spokojnie całe 6GB.

No i tu nasuwa mi się pytanie czy tuning ala. to co napisałem wyżej ma jakiś sens ? Mi się wydaje że nie, ja nadal chciał bym mieć lekka i szybka przeglądarkę… Dlatego postanowiłem napisać mały tutorial jak zmniejszyć apetyt firefox-a na pamięć.

  • Są dwa wyjścia, pierwsze to zmienić przeglądarkę na lepsza? 🙂

Tu muszę powiedzieć że Opera da się lubić, poza brakiem kilku dodatków które ff ma w zasadzie jest wszystko czego mi trzeba a na dodatek czuj się bardziej bezpieczny bo Opera w swojej historii miała znacznie mnie groźnych luk. Niestety co trzeba powiedzieć Opera ma problemy z wieloma stronami, nawet z tymi które nie wymagają IE i w FF chodzą doskonale… No za to Opera jest bardziej USER FRIENDLY niż inne przeglądarki! 🙂

Kolejna alternatywa to Google Chrome ( SRWare Iron ) który jest rewelacyjnie szybki i tu nie ma kompromisów, ładuje się szybko, zajmuje mało, czas renderowania stron jest krótki a na dodatek fatalny język JavaScript chodzi dużo szybciej niż u konkurencji! Niestety Chrome ma ogromne braki i nie ma w nim podstawowych opcji, ale to może być powód bardzo młodego wieku.

To tyle jeżeli chodzi o alternatywę, bo dla mnie i wielu innych osób przeglądarki typu IE, Safari, Moo + wszelkie modyfikację IE nie istnieją…

  • Kolejny sposób to próbować ratować Firefox-a

Aby tego dokonać najlepiej jest zdobyć gdzieś zoptymalizowanego pod swój procesor i jego instrukcje „build”. Pod systemami UNIX-owymi i podobnymi to nie jest wielkim problem, Gentoo np. samo kompiluje sobie ff z źródła a nawet jeżeli nie mamy Gentoo to możemy sobie skompilować przeglądarkę ręcznie bo prawie każdy linux/unix ma kompilator GCC 🙂 Problem mają użytkownicy Windows bo aby skompilować coś pod windowsem potrzeba Visual Studio 2005 a czasem nawet 2008 które nie są ani darmowe ani lekkie… Dlatego łatwiej jest poszukać jakiegoś build-u ale to nie jest łatwe bo oficjalnych nie ma albo są nieaktualne lub nie dokładnie zoptymalizowane.

Znalazłem stronę na której jest spis nieoficjalnych buildów: http://pryan.org/mozilla/firefox/

Jeżeli znajdziecie coś to dobrze jeżeli nie to można jeszcze zrobić mały tuning ustawień które o dziwo mogą wiele zdziałać.

  • wchodzimy do ustawień ff przez wpisanie w miejsce adres „about:config”
  • ustawiamy wartość zmiennych: network.http.pipelining, network.http.proxy.pipelining  na „true”
  • zmienna: network.http.pipelining.maxrequests na 10 lub 15 (bez przesady tutaj)
  • zmienne: nglayout.initialpaint.delay, ui.submenuDelay na wartość: 0 a zmienna: content.notify.backoffcount na 5 (jeżeli nie mamy takowych dodajemy nowe prawym przyciskiem „dodaj ustawienia typu” -> „integer”
  • dodajemy lub zmieniamy zmienne: network.dns.disableIPv6 na false, zmienne: plugin.expose_full_path na true, są to zmienne „string”
  • aby ograniczyć użycie pamięci do około 5-10% przy zminimalizowaniu ff, dodajemy zmienną typu „Boolean” o nazwie „config.trim_on_minimize” i wartości „true”
  • firefox domyślnie ładuje stronę zanim klikniemy na link, czasem to ma sens czasem nie bardzo ja uważam że to marny pomysł dlatego wyłączam to przez zmienne: „network.prefetch-next” na „false”
  • odchudzamy GUI przez zmianę „browser.chrome.toolbar_tips” na „false”
  • ograniczamy pochłanianie pamięci przy normalnym działaniu przeglądarki, przez zmianę „browser.cache.memory.enable” na „false” oraz ustawienie wartości „browser.sessionhistory.max_total_viewers” na „0”
  • na koniec ograniczamy globalne użycie pamięci przez ff ustawiając zmienna „browser.cache.memory.capacity” w zależności od ilości pamięci fizycznej naszej maszyny lub naszej hojności wobec ff. Ja ustawiam tu zawsze „10240” która odpowiada 10Mb (posiadam 6GB czyli jestem bardzo skąpy 😛 ) Wartość mówi ile kb ff może użyć. Zalecane ilości w stosunku do ilości pamięci to: 2048 przy 32mb, 4096 przy 64mb, 6144 przy 128mb, 10240 przy 256mb, 14336 przy 512mb, 18432 przy 1gb, 24576 przy 2gb, 30720 przy 4gb, więcej dawać nie zalecam nawet gdy mamy więcej pamięci.
  • Niezłym sposobem na łatwiejsze limitowanie ff jest też dodatek: https://addons.mozilla.org/pl/firefox/addon/1881

KONIEC

Mam nadzieję że komuś pomoże ten tutorial, bo każda oszczędność jest pozytywna w dobie pochłaniacza jakim jest Windows Vista!

Tagged with:
 

Kolejne rozwiązanie ogólnie znanego problemu rozdzielania dzwięku stereo na więcej niż 2 kanały.

Aby to oczywiście zrobić musimy posiadać kartę z obsługą wielu kanałów, a takich dziś jest masa wliczając także te wbudowane w płytę główną. Ciekawym przykładem są tu bardzo tanie karty: C-Media, Realtek oraz kilka innych opartych na codec-u ac97 (wersja >1.2) wszystkie są tanie, wersje na PCI można kupić za 20-30zł, a posiadają nawet 8 kanałów!

Niestety po podłączeniu i ustawieniu ALSA-y okazuje się że działają tylko przednie kanały (front).

Na początek sprawdzamy jakie karty są zainstalowane w systemie:

aplay -L

Rezultaty wyglądają mniej więcej tak:

default:CARD=CA0106
CA0106, CA0106
Default Audio Device
front:CARD=CA0106,DEV=0
CA0106, CA0106
Front speakers
rear:CARD=CA0106,DEV=0
CA0106, CA0106
Rear speakers
center_lfe:CARD=CA0106,DEV=0
CA0106, CA0106
Center and Subwoofer speakers
side:CARD=CA0106,DEV=0
CA0106, CA0106
Side speakers
surround40:CARD=CA0106,DEV=0
CA0106, CA0106
4.0 Surround output to Front and Rear speakers
surround41:CARD=CA0106,DEV=0
CA0106, CA0106
4.1 Surround output to Front, Rear and Subwoofer speakers
surround50:CARD=CA0106,DEV=0
CA0106, CA0106
5.0 Surround output to Front, Center and Rear speakers
surround51:CARD=CA0106,DEV=0
CA0106, CA0106
5.1 Surround output to Front, Center, Rear and Subwoofer speakers
surround71:CARD=CA0106,DEV=0
CA0106, CA0106
7.1 Surround output to Front, Center, Side, Rear and Woofer speakers
iec958:CARD=CA0106,DEV=0
CA0106, CA0106
IEC958 (S/PDIF) Digital Audio Output
null
Discard all samples (playback) or generate zero samples (capture)

Jeżeli nie będzie na niej nic co posiada więcej niż dwa kanały to albo mamy coś źle zainstalowane albo nasza karta jest tylko stereofoniczna.

Teraz pora na test podłączenia głośników, które wykonamy programem dostarczonym do ALSA-y.

speaker-test -Dsurround71:CA0106 -c8 -twav

Oczywiście zamiast CA0106 podajemy nazwę sterownika na jaki podał nam „aplay -L” oraz dopasowujemy ilość kanałów wersje surround do naszej karty.  Jeżeli wszystko jest ok, miła pani powie man który głośnik jest który, czasem bywa np. na emu10k1/2 (Audigy 2 /ZS) że kanały są odwrócone, lewy jest prawy, prawy jest lewy.

Gdy już wszystko ustawimy to i tak dźwięk odtwarzany z mp3 będzie leciał na przednich głośnikach, dlatego musimy użyć „dmix”.

dmix-a można użyć globalnie lub lokalnie dla użytkownika. Gdy użyjemy dmix-a globalnie każdy user będzie zmuszony do jego użycia.

Globalne ustawienia ALSA-y są zazwyczaj w /etc/asoundrc, lokalne w $HOME/.asoundrc

Tam własnie musimy wpisać:

pcm.!default {
type plug
slave.pcm „dmix”
slave.pcm „surround71”
slave.channels 8
route_policy duplicate
}

Jak zawsze trzeba dopasować liczbę kanałów do karty i tak np. dla 6 kanałowych:

pcm.!default {
type plug
slave.pcm „dmix”
slave.pcm „surround51”
slave.channels 6
route_policy duplicate
}

Dla 4-ro kanałowych:

pcm.!default {
type plug
slave.pcm „dmix”
slave.pcm „surround40”
slave.channels 4
route_policy duplicate
}

itd… w razie pytań proszę pisać.

Tagged with:
 

Portal Bezpieczna Sieć - Forum komputerowe, Informatyka śledcza, bezpieczeństwo, backtrack, kali - Kali Linux Polska Edycja - Polska Edycja Backtrack - Poradnik dla gracza - Seriws Laptopów Katowice - Sklep Komputerowy Katowice - Parking BETA przy lotnisku Pyrzowice - miejsce Run w sieci - eMono-cykl, SegWay, AirWheel, SoloWheel

stat4u