Jest wiele celów dla których chcemy zmienić adres IP, są te dobre i te złe. Dla mniej zorientowanych napiszę do czego nadaje się dany sposób zmiany adresu.

1. Dynamiczny adres IP.

Niektóre usługi takie jak np. Neostrada, Netia Net24, Netia WiMax wymuszają na użytkowniku zmianę adresu co 24h lub co logowanie. Jest to dobre i złe, ponieważ z jednej strony można pobierać pliki z wielu portali mimo ograniczeń, logować się na portale wielokrotnie itp. Niestety dostęp do niektórych usług na zakresach dynamicznych adresów IP jest zablokowany domyślnie przez wielu operatorów, właśnie dlatego że niektórzy nie mają hamulców. Nie polecam jednak robić niczego mało legalnego bo to że adres IP się zmienia nie oznacza że operator nie wie kto i kiedy był na danym adresie. Szczególnie Telekomuna monitoruje tego typu aktywność.

2. VPN – Virtual Private Network a raczej szyfrowane lub nie tunele.

Są to usługi darmowe lub nie, można się do nich połączyć za pomocą odpowiedniego oprogramowania. Po instalacji aplikacje zazwyczaj tworzą w naszym systemie wirtualne urządzenie sieciowe które kieruje cały ruch przez tunel a nie bezpośrednio przez nasze łącze.

Jest kilka usługo dawców należą:

  • Packetix – darmowy, bez reklam, brak limitów transferu, limit prędkości
  • HotSpot Shield – darmowy, masa reklam, brak limitów transferu, brak limitów prędkości
  • Hamachi – darmowy, brak limitów transferu (bardzo polecany ja nie testowałem)
  • UltraVPN – darmowy, wymaga rejestracji
  • CyberGhost – darmowy i płatny z limitami
  • Gpass – darmowy, limity

Jest to bardzo dobry wynalazek jeżeli chodzi o zabezpieczenie swojej prywatności w wielu darmowych HotSpot-ach gdzie nie ma szyfrowania, niestety zazwyczaj czas odpowiedzi zwiększa się diametralnie a niektóre porty/usługi są zablokowane. Często jedyny dostępny port to 80 (http). Plusy są takie że operatorzy to zazwyczaj zagraniczne firmy.

3. Proxy – serwery pośredniczące, jest ich masa, listy takich otwartych serwerów są dostępne z internecie na wielu stronach np. http://www.samair.ru/proxy/ aktualizowane często łatwe do podłączenia.

Wady są takie że 99,9% tych serwerów przewiduje połączenie tylko na 80 port, chyba że to Socks. Nie zapewniają szyforwania. Plusów jest więcej, duża ilość takich proxy, spora anonimowość, brak limitów, lokalizacja w różnych krajach włącznie z chinami, mozambikiem, sporo programów do dynamicznej zmiany serwera proxy a także ich szybkiego testowania.

4. Tor – wirtualana sięc komputerowa implementująca trasowanie cebulowe. Wykorzystuje wielowarstwowe szyfrowanie a ruch pomiędzy routerami jest okresowo zmieniany na inny obwód co skutecznie uniemożliwia analizę. Sieć składa się z dobrowolnych ochotników lub wyznaczonych serwerów. Wada to bardzo różna raczej słaba przepustowość, spory ping. Zalety to całkowita prywatność, brak możliwości namierzenia źródła, duże możliwości, łatwe połączenie SOCKS.

Zastosowanie bardzo szerokie, ale nie nadaje się do ściągania dużych plików, grania w gry itp.

KONIEC, życzę miłego oglądania MegaVideo ;P

Tagged with:
 

Network Stumbler: ALFA vs. world

On 2010/01/14, in Backtrack.pl, brak, by Tommy

Napisałem że tego nie robię ale dałem się złamać, sprzedałem 4-ry sztuki Alfy i okazało się że przez niewiedzę wpadła mi w ręce nowa wersja ALFY na niebieskim laminacie,  czyli ALFA AWUS036H v2. W środku zupełnie inny laminat, zupełnie nowa konstrukcja… niestety rezultaty podobne!

Na prośbę wielu osób zrobiłem szybkie test wszystkich kart za pomocą Network Stumbler którego nie/cierpieeee 🙂

Efekt:

Wynik jak przystało na NS, niewiele mówi… widać tylko że Alfa przoduje, nie jestem tylko pewien w czym. Ale nie istotne.

Wykresu nie ma co opisywać bo każdy sam sobie go zinterpretuje, dodam tylko że test wykonałem z własnym AP o realnej mocy 400mW z anteną omni 9dbi, za to alfa i pozostałe karty dostały oryginalną antenkę od nowej alfy czyli 5dbi. Odległość to około 10m + żelbetonowy strop zbrojony co 15cm prętami o średnicy 20mm 😉 Alfa oczywiście na zmodyfikowanym Alfowskim sterowniku dedykowanym tylko do tej karty, opatrzonym opisem „1W”

Wbrew opinią ALFA 1W wymaga dużo prądu, więcej niż wersja 500mW, gdy podpiąłem ją za pomocą 5m kabla USB nie chciała działać! Dwie przedłużki? efekt identyczny! HUB USB? Brak wykrytych sieci! Na szczęście miałem tajną bron! HUB USB zasilany z zewnątrz.

Dodam że wersja 1W nie jest już sprzedawana z rozdwojonym kablem USB, który był chyba bardziej chwytem marketingowym niż koniecznością.

Ten wykres to taka ciekawostka, pierwsze zielone słupki to poprzedni wykres ale tym razem dodałem WN422G puszczony na sterowniku Atheros-a a nie TP-Link-a, możliwe że to jakiś błąd bo sygnał jest nie realnie mocny (tak jak i szum) ale przy normalnej pracy karty wszystko jest ok, a powiem nawet więcej… bardziej niż ok bo karta mimo tej samej mocy sygnału znacznie poprawiła jakość połączenia, czasem przy -80dbm nadal jakość oscyluje w okolicy 80-90% a prędkość połączenia nie spada niżej 48Mbit.

Podsumowanie: dla mnie Alfa 500mW od 1W nie wiele się różni, moc jak zawsze nie realna, a efektów nie widać przy normalnej pracy. Co mnie zaskakuje dwie Alfy podczas komunikacji ze sobą dalej nie mają jakiegoś super rewelacyjnego zasięgu, mój Prism2.5 na PCIMCA radzi sobie dużo lepiej a ath9k jest bardzo porównywalny z Alfa, ma tyko troszkę stabilniejszy sygnał.

Tagged with:
 

Dane tutaj zawarte są mocno nie aktualne z powodu zmian w systemie Linux (w tym też Backtrack) oraz modyfikacji które zostały dokonane na sterownikach Windows i samym sprzęcie przez dodanie nowych rewizji do swojej oferty.


Tools or Toys ?!

Wiele osób szuka dobrych kart do wardrivingu lub też po prostu silnej karty WiFi aby swobodnie korzystać z internetu w okolicy swojego domu.

Na wielu aukcjach sprzedawcy reklamują swoje produkty i podają „fikcyjną” moc jaką może wyzwolić kart, ostatnio trafiają się już modele które reklamują się jako 1,5W (1500mW) niestety po pierwsze nie jest to możliwe po drugie im większa moc tym mniejsza czułość.

Dla kart bezprzewodowych istotnymi parametrami poza mocą jest też: czułość, zysk anteny, rodzaj anteny itd.

W związku z tym postanowiłem przetestować kilka „kultowych” modeli kart WiFi na USB:

1. Tonze UW-6200C1 (Ralink RA73USB) 200mW

2. Tonze UW-6200R/H (Realtek RTL8187L) 200mW

3. Edimax EW-7318USg (Ralink RA73USB) <100mW

4. Alfa Network AWUS036H (Realtek RTL8187L) 500mW (1000mW?!)

5. Alfa Network AWUS050NH (Ralink RT2770F) 500mW

Oraz dwa/jeden model który dostał pseudonim „zaprzepaszczone marzenia”

1. TP-Link WN422G (Atheros RA9271) (100mW)

2. TP-Link WN722N (Atheros RA9271) (100mW)

i na konieć modele zintegrowane w laptopach:

1. RTL8187L (Aristo) (<100mW)

2. Atheros ar5007 (eeePC) (<100mW)

Na początek dodam że WN422G i WN722N to dokładnie ta sama karta na tym samym chipie różnica polega tylko na tym że RA9271 został ograniczony do 52Mbit w wersji 422G, dlatego testuje tylko wersję WN422G

  • Test pierwszy (moc)

Tu wygrywają Alfy ich sygnał jestem w stanie odebrać nawet dobry kawałek od domu, niestety komunikacja jest możliwe tylko wtedy gdy obie strony posiadają tak silną kart, w przeciwnym wypadku sieć jest widoczna ale nie można nic przez nią przepuścić.

  • Test drugi (czułość)

Niestety edimax, tonze UW-6200C1 (ralink) leżą i kwicza, Tonze UW-6200R/H oraz Alfy są dużo lepsze, większa moc pozwala im nadać sygnał dalej a w rezultacie odebrać słabą odpowiedź od sieci z którymi nie są w stanie nawiązać połączenia. Gdy tylko nasłuchujemy Tonze oraz Alfy mają bardzo zbliżoną czułość, delikatnie czulsza jest Tonze. Ten test wygrywa Atheros i oba tplink-i, nie odbierają tyle sieci co Alfa czy Tonze (rtl8187) ale z większą ilością tych które widzą są w stanie nawiązać funkcjonalne połączenie. W liczbach wygląda to mniej więcej tak że Alfa widzi 30 sieci z czego z 15 jest w stanie nawiązać połączenie, Atheros widzi 25 z czego połączenie nawiązuje z 20. Ale tu muszę dodać że Alfa (RTL8187L) czasem zachowuje się dziwnie, często w iwconfig wlan0 pokazuje się moc sygnału -1 albo coś bardzo silnego ala. -10 do -15 a mimo to połączenie nie może być nawiązane, gdy podepnie się inna kartę okazuje się że sieć jest odbierana na poziomie -80dbm. Takie zachowanie zaobserwowałem też na Tonze (RTL8187L) ale znacznie rzadziej. Pozostałe karty są pozbawione tego typu dolegliwości mam tu na myśli także Alfe AWUS050NH na Ralink-u.

  • Test trzeci (stabilność sygnału)

Królem jest tu stary Atheros AR5007 na drugim miejscu TP-Link WN422G (Atheros RA9271). 422G jest na drugim bo trafia się czasem nie wiadomo dlaczego mały lag. Wszystkie Ralink-i charakteryzują się dobrą jakością połączenia i przyzwoitą stabilnością. Realtek jest tu na dnie, często mimo że warunki otoczenia się nie zmieniają połączenie zostaje zerwane. Gdy moc sygnału spada niżej 50% przerwy w połączeniu trafiają się zbyt często.

Wykres pokazuje średnią mocy sygnału w odstępach 5 sekundowych przez około 15 minut, połączenie nawiązane było z programowym Access Point-em na chip-ie Prism2.5 który był w odległości około 600m w linii prostej bez przeszkód terenowych na zwykłej antenie 3-5dbi. Wniosek: Mimo prawie trzy krotnej przewagi alfy nad Atheros-em moc sygnału od AP jest na bardzo zbliżonym poziomie, po dokładnej analizie wychodzi jednak że linia trendu Atheros-a wychodzi w okolicy -43dbm a u alfy -47,5dbm sytuacja się skomplikowała gdy zamiast anteny 2-3dbi zastosowałem Netus Yagi 16dbi a AP dostał antenę sektorową 19dbi a odległość zwiększyła się do około 1-1,5km! Sygnał oczywiście był mocniejszy oscylował w okolicy -40dbm ale różnica pomiędzy Alfą a Atheros-em zniknęła i wynosiła dokładnie tyle ile błąd std. przy 1000 prób. Ta sytuacja zmusiła mnie do wykonania próby z przeszkodami, w budynku ustawiłem AP na Atherosie 400mW z anteną dokólną 7dbi Alfa(RTL) i Atheros dostał patyk 2-3dbi. Efekt Alfa na granicy -85dbm Atheros -80dbm! Atheros nawiązał połączenie Alfa też ale Alfie nie udało się nic przesłać! Co ciekawe AP pokazywał że sygnał od Alfy jest na poziomie -70dbm! (MOC TO NIE WSZYSTKO!)

  • Test czwarty (oprogramowanie/wsparcie/możliwości)

Realtek działa zawsze wszędzie, sterowniki są bardzo dobre nawet na linux-ie.

Ralink działa także wszędzie, sterowniki na linux-a są dobrze nawet lepsze niż Realtek-a.

Atheros AR9271 (TP-Link WN422G) jak już wcześniej napisałem kart wiele osób nazywa „zaprzepaszczone marzenia” a to dlatego że po zmianie adresu MAC karta przestaje nadawać! Koszmar! Sterowników pod linux-a nie ma! (madwifi nie wspiera kart na USB) jedyny istniejące support jest w fazie wczesnego rozwoju (ath9k_htc) jedyne co działa to podnoszenie interfejsu, do dziś nie udało mi się przecisnąć przez nią jednego bajta. Nie mam informacji czy pod linux-em karta też przestaje nadawać po zmienię mac.

Atheros AR5007 (eeePC) działa dobrze, sterownik dla linux-a jest przyzwoity.

  • Test piąty (wykonanie)

Tonze to dziwna firma bo jedyne co jest na obudowie to logo firmy, zero nazwy po prostu „802.11g Wireless LAN USB Adapter” jakość wykonania 3/10

Alfa bardzo ładnie wykonana, ciekawa unikalna obudowa. 8/10

TP-Link czarno biały design mi osobiście przypadł do gustu, plastiki bardzo przyjemne jedyne co mi się nie podoba to dioda która świeci przez obudowe 9/10

Edimax ma identyczny kształt obudowy jak  Tonze UW-6200C1 ale plastik z którego jest wykonany jest dużo lepszy.

Wewnętrzne karty wykonane są identycznie ale Realtek czasem montuje w swoich kartach konektor do wewnętrznej anten, moja wersja Atheros-a takiego nie posiada.

  • Test czwarty (cena vs. wartość)

Tonze, Edimax, TP-Link oraz wewnętrzne modele kosztują mniej więcej tyle samo (~40zł) na rynku wtórnym Tonze wolniej traci na wartości. Sprawa ma się troszkę inaczej jeżeli chodzi o Alfy, których cena jest ogromna (300-100zł) a wartość jest zbliżona do pozostałych kart bo wnętrzności różnią się nieznacznie, na 100% nie są warte 300zł! Paranoja.

  • PODSUMOWANIE:

Jeżeli szukasz karty aby mieć internet na większe odległości polecam TP-Link-a bo jest najstabilniejszy, najczulszy a zarazem udało mi się uzyskać użyteczne połączenie dzięki tej karcie na dużo większą odległość niż dzięki Alfie.

Jeżeli chcesz nękać sąsiadów polecam Tonze  UW-6200R/H bo ma przyzwoitą czułość działa z Backtrack 3/4 i nie kosztuje za dużo. (Wersja UW-6200C1 jest gorsza od R/H, jest mniej czuła i wydaje się być słabszą. RTL8187 wygrywa z RA73USB

Jeżeli szukasz karty do laptop-a polecam Atheros-a 5007 bo ma dużo lepsze parametry niż Realtek. Ja osobiście wymieniłem sobie RTL na Atherosa w moim Aristo (7″) który posiada wewnątrz dwa porty USB!  W normlanym laptopie z miniPCi/e także polecam Atheros-y szczególnie ath9k (9XXX) które bardzo dobrze działają nawet pod linux-em. (Dla linux-a jedyny problem to przejście po USB)

Edimax według mnie jest troszeczkę słabsza i mniej czuła niż Tonze C1 który wygląda identycznie ale różnica jest znikoma.

Alfy polecam osobą które mają za dużo pieniędzy i chcą kupić coś co i tak nie jest w stanie nawiązać dużo lepszego połączenia niż tańsze modele.

Sprzęt:

Dwa komputery typu desktop, netbook Aristo, netbook eeePC, AP TP-Link  WA5110G 400mW, trzy antena 9dBi, kilka patyków 2-6dBi, dwie anteny kierunkowe 16dBi, Sektor 19dBi

Oprogramowanie:

OS: 3x Windows XP Pro, Arch Linux, 2x Gentoo Linux Soft: Aircrack, kismet, wireless-tools, wireshark, mrtg, wtan, netstumbler, tcpdump, iftop, ncftp, netcat, nmap, ping, WirelessMon, AirMagnet WiFi

Niedługo przedstawię nowy test, kart WiFi pod linux-em.

ps.

Jeżeli ktoś chciał by kupić używaną Alfę 500mW chętnie sprzedam, posiadam 7 sztuk.

EDIT 2010-01-10:

Nie aktualne, wszystkie karty sprzedane.

EDIT: 2010-05-20:

Atheros AR 9271 z działa już pod linux-em, zapraszam do przeczytania małej recenzji:

http://backtrack.pl/2010/06/01/linux-jak-uruchomic-tp-link-a-wn722n-lub-wn422g-pod-linux-em-ar9271-ath9k_htc/

Krótki test:

http://backtrack.pl/2010/06/08/linux-test-wn722-wn422g-atheros-ar9271/

 

 

Tonze 200mW :)

Tagged with:
 

FAQ: odpowiedzi

On 2009/03/05, in Backtrack.pl, brak, by Tommy

Dostaje sporo pytań, postanowiłem masowo na nie odpowiedzieć:

1. Czego używam do wywoływania, obrabiania itd. zdjęć które są na Flickr ?

ad.1 Używam kilku programów zależy co chcę osiągnąć i na jakim systemie pracuje. Jeżeli chodzi o Windows, preferuje do oglądania Canon ZoomBrowser bo szybko otwiera RAW-y (.cr2) ale do czegokolwiek innego się nie nadaje. Potem do wywoływania Adobe Photoshop Lightroom bo radzi sobie nieźle z wywoływaniem i eksportuje do Photoshopa (aktualnie mam licencję tylko na CS3 ale planuję zakupić CS4) + masa pluginów. Jeżeli używam linux-a to do oglądania mam gRawview2 ( wersja pisania w C/C++ na bazie gpicview ) potem do wywoływania LightZone. (niestety dysponuje tylko wersją trial, ale aktualizacje są tak częste że każda kolejna daje mi kolejny miesiąc testowania za darmo) Lubię LightZone bo jest rozbudowany radzi sobie nawet z raw-ami z 5D MarkII (szczególnie po małym tuningu) a na dodatek potrafi wydobyć z zdjęcia niesamowity zakres dynamiczny! Ale co trzeba powiedzieć działa na JAVA która jest językiem który dla mnie nie powinien istnieć! LightZone jest przez to bardzo wolny, i pochłania ogromne ilości pamięci… bueee… Próbowałem kiedyś używać RawTherapee ale nie radzi on sobie z raw-ami, widzi dziwne szumy a kolory szczególnie przy próbach naśladowania efektów LightZone robią się diametralnie inne. Na koniec obróbka dokonuje w GIMP-ie oczywiście z sporą ilością dodatków. GIMP jest super 🙂

2. Jakiego używam systemu na zdjęciach z autoryzacją suDown?

ad.2 To jest zwykły Window$ XP z dodatkiem Vista Inspirant, może troszeczkę zmodyfikowany ale nie jest to żaden WinMX czy 7X. Pasek to RockerDock z ikonami które są do pobrania na jego stronie.

Jeżeli będą jakieś ciekawe pytania to dodam je do tego post-a.

Celowo cofam post w czasie.

Tagged with:
 

firefox-burnW sieci można odszukać wiele poradników jak zmusić firefox-a do szybkiego ładowania stron, szybkiego otwierania menu etc. To bardzo miłe że ktoś o tym myśli ale podejście do tego zazwyczaj ogranicza się do dwóch rzeczy:

1. powiększyć ilość połączeń w jednym czasie do max.

2. powiększyć buffer w pamięci do max.

3. powiększyć buffer na dysku do max.

4. zmniejszyć opóźnienie wyskakiwania okienek do min.

Może to i ma jakiś sens, ale nie wiem czy przypadkiem on gdzieś nie uciekł… dlaczego? Kiedyś Firefox był dosyć lekki większość komputerów odpalała go szybki a z pamięci zajmował bardzo mało, dziś już nie można tak powiedzieć. Firefox jest ciężki, wolny i niesamowicie rozbudowany, przez co nawet mój komputer który ma dwa rdzenie po kilka GHz a do tego 6GB ram-u sprzętowy RAID5 na trzech dyskach, zaczyna mieć poważne problemy gdy załaduje 10-15 stron na kilku zakładkach… a gdy te strony mają masę ogromnych obrazków to firefox potrafi łyknąć spokojnie całe 6GB.

No i tu nasuwa mi się pytanie czy tuning ala. to co napisałem wyżej ma jakiś sens ? Mi się wydaje że nie, ja nadal chciał bym mieć lekka i szybka przeglądarkę… Dlatego postanowiłem napisać mały tutorial jak zmniejszyć apetyt firefox-a na pamięć.

  • Są dwa wyjścia, pierwsze to zmienić przeglądarkę na lepsza? 🙂

Tu muszę powiedzieć że Opera da się lubić, poza brakiem kilku dodatków które ff ma w zasadzie jest wszystko czego mi trzeba a na dodatek czuj się bardziej bezpieczny bo Opera w swojej historii miała znacznie mnie groźnych luk. Niestety co trzeba powiedzieć Opera ma problemy z wieloma stronami, nawet z tymi które nie wymagają IE i w FF chodzą doskonale… No za to Opera jest bardziej USER FRIENDLY niż inne przeglądarki! 🙂

Kolejna alternatywa to Google Chrome ( SRWare Iron ) który jest rewelacyjnie szybki i tu nie ma kompromisów, ładuje się szybko, zajmuje mało, czas renderowania stron jest krótki a na dodatek fatalny język JavaScript chodzi dużo szybciej niż u konkurencji! Niestety Chrome ma ogromne braki i nie ma w nim podstawowych opcji, ale to może być powód bardzo młodego wieku.

To tyle jeżeli chodzi o alternatywę, bo dla mnie i wielu innych osób przeglądarki typu IE, Safari, Moo + wszelkie modyfikację IE nie istnieją…

  • Kolejny sposób to próbować ratować Firefox-a

Aby tego dokonać najlepiej jest zdobyć gdzieś zoptymalizowanego pod swój procesor i jego instrukcje „build”. Pod systemami UNIX-owymi i podobnymi to nie jest wielkim problem, Gentoo np. samo kompiluje sobie ff z źródła a nawet jeżeli nie mamy Gentoo to możemy sobie skompilować przeglądarkę ręcznie bo prawie każdy linux/unix ma kompilator GCC 🙂 Problem mają użytkownicy Windows bo aby skompilować coś pod windowsem potrzeba Visual Studio 2005 a czasem nawet 2008 które nie są ani darmowe ani lekkie… Dlatego łatwiej jest poszukać jakiegoś build-u ale to nie jest łatwe bo oficjalnych nie ma albo są nieaktualne lub nie dokładnie zoptymalizowane.

Znalazłem stronę na której jest spis nieoficjalnych buildów: http://pryan.org/mozilla/firefox/

Jeżeli znajdziecie coś to dobrze jeżeli nie to można jeszcze zrobić mały tuning ustawień które o dziwo mogą wiele zdziałać.

  • wchodzimy do ustawień ff przez wpisanie w miejsce adres „about:config”
  • ustawiamy wartość zmiennych: network.http.pipelining, network.http.proxy.pipelining  na „true”
  • zmienna: network.http.pipelining.maxrequests na 10 lub 15 (bez przesady tutaj)
  • zmienne: nglayout.initialpaint.delay, ui.submenuDelay na wartość: 0 a zmienna: content.notify.backoffcount na 5 (jeżeli nie mamy takowych dodajemy nowe prawym przyciskiem „dodaj ustawienia typu” -> „integer”
  • dodajemy lub zmieniamy zmienne: network.dns.disableIPv6 na false, zmienne: plugin.expose_full_path na true, są to zmienne „string”
  • aby ograniczyć użycie pamięci do około 5-10% przy zminimalizowaniu ff, dodajemy zmienną typu „Boolean” o nazwie „config.trim_on_minimize” i wartości „true”
  • firefox domyślnie ładuje stronę zanim klikniemy na link, czasem to ma sens czasem nie bardzo ja uważam że to marny pomysł dlatego wyłączam to przez zmienne: „network.prefetch-next” na „false”
  • odchudzamy GUI przez zmianę „browser.chrome.toolbar_tips” na „false”
  • ograniczamy pochłanianie pamięci przy normalnym działaniu przeglądarki, przez zmianę „browser.cache.memory.enable” na „false” oraz ustawienie wartości „browser.sessionhistory.max_total_viewers” na „0”
  • na koniec ograniczamy globalne użycie pamięci przez ff ustawiając zmienna „browser.cache.memory.capacity” w zależności od ilości pamięci fizycznej naszej maszyny lub naszej hojności wobec ff. Ja ustawiam tu zawsze „10240” która odpowiada 10Mb (posiadam 6GB czyli jestem bardzo skąpy 😛 ) Wartość mówi ile kb ff może użyć. Zalecane ilości w stosunku do ilości pamięci to: 2048 przy 32mb, 4096 przy 64mb, 6144 przy 128mb, 10240 przy 256mb, 14336 przy 512mb, 18432 przy 1gb, 24576 przy 2gb, 30720 przy 4gb, więcej dawać nie zalecam nawet gdy mamy więcej pamięci.
  • Niezłym sposobem na łatwiejsze limitowanie ff jest też dodatek: https://addons.mozilla.org/pl/firefox/addon/1881

KONIEC

Mam nadzieję że komuś pomoże ten tutorial, bo każda oszczędność jest pozytywna w dobie pochłaniacza jakim jest Windows Vista!

Tagged with:
 

Instalator Windows-a XP przy starcie sprawdza co mamy na dysku, czasem gdy usuniemy partycję a nie wymarzmy obszaru bootstraping w MBR instalator XP rozpoczyna szukania systemu którego nie ma! Jak rozwiązać problem ?

Odpalamy dowolnego linux-a z LiveCD i wpisujemy:

dd if=/dev/zero of=/dev/sda bs=1M count=1

Potem tworzymy nowe partycje i normalnie instalujemy system.

Pamiętajcie jednak że tego typu operacja nieodwracalnie wymazuje pierwszy 1MB naszego dysku co może znacznie utrudnić odzyskanie danych z pozostałego obszaru dysku.

Tagged with:
 

 

Został dziś wydany nowy Firefox 3.0 a żeby było tego mało to jeszcze mozilla próbuje pobić rekord Gunnessa w ilości pobrań w ciągu 24h!

Szczegóły:

http://www.spreadfirefox.com/pl/worldrecord

Wracając do samego Firefox-a to zmiany są naprawdę spore:

– zupełnie nowy bardzo przejrzysty interfejs

– zmniejszone użycie pamięci i innych zasobów komputera przez co FF stał się naprawdę szybki

– ciekawy sposób ochrony przed złośliwymi stronami, prosta identyfikacja stron

– nowe metody wyszukiwania w zakładkach na zasadzie słów kluczowych, możliwość definiowania własnych skrótów

– dodano inteligentny pasek na którym odszukać można nasze często odwiedzane witryny

i wiele więcej, pełny opis można znaleźć na stronie:

http://www.mozilla-europe.org/pl/firefox/3.0/releasenotes/

 

Tagged with:
 

Krótki tutorial jak można pod kontrolą systemu Windows Vista x64 SP1 aktualizować/flashować/patchować telefony Sony-Ericsson.

Sprawa o tyle jest dziwna że SE na stronie pisze że SEUS działa tylko na x86 ale ja znalazłem sterownik który został przeznaczony dla systemów x64 i umieszczony w oryginalnym pliku instalacyjnym SEUS na stronie SE.

  1. Ściągamy SEUS : http://www.sonyericsson.com/
  2. Instalujemy zupełnie normalnie.
  3. Wchodzimy do katalogu C:\Program Files (x86)\Sony Ericsson\Update Service\setup\drivers
  4. Rozpakowujemy gdziekolwiek plik USBFlashDriver.zip
  5. Podpinamy za pomocą kabla usb WYŁĄCZONY telefon cały czas trzymając klawisz „C”
  6. Gdy system wykryje nowe urządzenie dajemy „przypomnij mi później”
  7. Wchodzimy w „panel sterowania” -> „menadżer urządzeń”
  8. Wybieramu „SEMC USB Flash” -> „aktualizuj sterownik”
  9. Ręcznie wybieramy sterownik wskazując plik z wcześniej rozpakowanego ZIP-a „amd64\ggsemc.sys”
  10. Zainstaluj -> Zakończ

Teraz możemy normalnie odpalić SEUS, lub też inny programy typu XS++, jdflasher, SEtool …

Tagged with:
 

Podczas dosyć głośno reklamowanego ostatnimi czasy konkursu „Pwn to Own” hakerom w ciągu trzech dni udało się przejąć kontrolę nad Windows Vista Ultimate z dodatkiem Service Pack 1 oraz MacOSX Tiger, ale nikomu nie udało się ruszyć Ubuntu!

Trzeba dodać że MacOSX dzięki luce w przeglądarce Safari poddał się już w drógim dniu, Vista broniła się aż do trzeciego dnia i poległa przez luke w Adobe Flash! Nagrody wyniosły 5000$ za Vistę oraz 10000$ za Mac-a.

LINUX GURĄ!

Tagged with:
 

Portal Bezpieczna Sieć - Forum komputerowe, Informatyka śledcza, bezpieczeństwo, backtrack, kali - Kali Linux Polska Edycja - Polska Edycja Backtrack - Poradnik dla gracza - Seriws Laptopów Katowice - Sklep Komputerowy Katowice - Parking BETA przy lotnisku Pyrzowice - miejsce Run w sieci - eMono-cykl, SegWay, AirWheel, SoloWheel

stat4u