‘Internet’ címkével ellátott bejegyzések

Csoki Tools

2011. augusztus 1. hétfő

Ha egyszer megbarátkozunk a parancssorral, akkor lehet akár milyen csillogó-villogó operációs rendszerünk, időnként mégis vissza-vissza fogunk vágyni parancssoros módba, ahol ugyanazt a feladatot sokszor sokkal egyszerűbben és gyorsabban végezhetjük el, mint akármilyen GUI alatt. Az első lépést viszont ebbe az irányba – vagyis hogy megbarátkozzunk ezzel a felülettel – itt is magunknak kell megtennünk.

Már régebb óta szemeztem vele, korábban már le is töltöttem a wget és az mc csomagokat, csak mivel konkrétan nem kellettek eddig semmire, nem is telepítettem őket. A napokban viszont aktuális lett a dolog és úgy gondoltam, hogy megírom ezt a bejegyzést, hátha más is hasznát veszi.

Csokoládé Tools

A Csokoládé Tools oldala 2010. januárjában indult útjára. Az oldal azóta új dizájnt kapott és új helyre költözött, jelenleg a csokitools.tumblr.com címen érhető el. Bár én Linuxos környezetben az oldalon elérhető dolgok közül csak a wget-et és az mc-t használom rendszeresen, de a többi parancssoros szoftver is jól jöhet szinte bárkinek, különös tekintettel az egyszerűségre, a jó paraméterezhetőségre és nem utolsó sorban az ingyenességre.

A telepítés

A Csoki Tools oldal talán egyetlen hiányossága az, hogy a teljes telepítési útmutató csak a következőből áll: How to install: sudo unzip -d /usr/local [drag the zip file here]

Meggyőződésem, hogy egy kezdőt – aki eleve idegenkedik a parancssor használatatól – ez csak mégjobban elriaszt, hiszen egy hozzá nem értő ezzel a sorral semmit sem tud kezdeni. Persze nem sok esély van arra, hogy pont azok próbálják meg feltenni, akik amúgy sem értenek hozzá, de adjuk meg a lehetőséget azoknak is, akiknek ez jelenleg még gondot okozhat. Próbáljuk meg megszerettetni a parancssor világát azokkal, akik még nem ismerik, ugyanakkor érdeklődnek utána, viszont egyedül nem mernek belevágni, esetleg nincs kitől megkérdezni…

Úgy gondoltam, hogy az egysoros utasítás helyett inkább leírom azt a pár lépést, amit el kell végezni a fenti szoftverek használhatóvá tétele érdekében (nem kell megijedni az alábbi listától, nem olyan vészes, mint amilyennek látszik). Példának a wget-et fogom írni, de ez tetszőlegesen alkalmazható a többi csomagra is, csak ügyeljünk a terminal parancsok bemásolása vagy beírása közben a fájlnévre, esetleg az elérési utakra.

1.) Töltsük le a csokitools.tumblr.com oldalról a wget-et.

2.) Nyissuk meg a Terminalt, vagy egy tetszőleges alkalmazást, mellyel elérhetjük a parancssort. A bejegyzés további részében feltételezem, hogy a Downloads könyvtárba töltöttük le a fent említett csomagot.

3.) Írjuk be a parancssorba a következő parancsot (ezzel átmásoljuk a Downloads könyvtárunkból a /usr könyvtárba az imént letöltött tömörített fájlt):

sudo cp ~/Downloads/wget-1.12.zip /usr

4.) Ez után pedig csomagoljuk ki a tömörített fájlt úgy, hogy a benne lévő állományok egyből a helyükre kerüljenek:

sudo unzip /usr/wget-1.12.zip -d /usr

5.) Most töröljük az előbb átmásolt tömörített fájlt a /usr könyvtárból (csak a rend kedvéért):

sudo rm /usr/wget-1.12.zip

6.) Ennyi volt az egész. 🙂 Most már rendelkezésre áll a parancssorban az imént feltett alkalmazás.

A fenti csomagokat ellátták man oldalakkal is, melyek segítenek, ha nem lennénk képesek fejben tartani az összes kapcsolót és lehetőséget (már pedig nem vagyunk képesek). A man oldalak elérése a man <csomagnév> parancssal történik, tehát wget esetében: man wget

Ha elakadtunk, használhatjuk a <csomagnév> ––help parancsot is.

Lássuk egy példát, hogy mire jó ez a gyakorlatban

A napokban hirtelen szükségem lett egy olyan szoftverre, amivel egymás után tudom letölteni a megadott állományokat (a Safari a link Downloads ablakra húzásakor azonnal elkezdni letölteni a fájlt akkor is, ha már egy másik letöltés folyamatban van). Nekiálltam letöltésvezérlő szoftvereket keresgélni Mac-re, aztán a sok ronda GUI-val rendelkező, ill. a sok 20-25 dolláros szoftver között keresgélve beugrott, hogy ezt a wget is tudja. A wget-et pedig talán a legegyszerűbben úgy lehet Mac-re feltenni, hogy a Csoki Tools oldalról letöltjük és néhány karakter Terminálba pötyögésével már van is egy okos, ingyenes, jól paraméterezhető parancssoros szoftverünk a letöltésekhez. 🙂

Írok is egy példát a használatára, ami végtelenül egyszerű. A Downloads könyvtárba szeretnék letölteni egy szerverről mondjuk 3 db, 500 MB méretű fájlt. Választhatunk, hogy 1.) ott ülünk a Safari mellett és egyenként letöltjük őket, 2.) egymás után ráhúzzuk a Downloads ablakra a 3 db 500 MB-os fájlra mutató linket (nem túl elegáns megoldás, mert a Safari egyszerre kezdi el letölteni mindhármat), 3.) beszerzünk egy letöltésvezérlő szoftvert, vagy pedig 4.) egyszerűen a következő képpen leszedjük a fájlokat wget segítségével (az alábbi parancs valójában egy sorból áll):

wget -P ~/Downloads/ http://server.tld/file1.zip http://server.tld/file2.zip http://server.tld/file3.zip

A -P kapcsoló egy úgynevezett directory prefix, ami ebben az esetben azt jelenti, hogy segítségével megadhatjuk azt, hogy hova mentse a fájlokat. Ha nem használjuk ezt a kapcsolót, akkor a wget simán a home könyvtárunkba fogja letölteni a fájlokat.

Egyszerű ez, csak ne idegenkedjünk a parancssoros dolgoktól, helyette inkább bátran barátkozzunk meg velük… 🙂

Egy perc alatt az interneten

2011. július 1. péntek

Sokakkal ellentétben én kimondottan szeretem az infografikát, mert általában lényegre törő, könnyen érthető és gyorsan emészthető a tartalma. Ez itt éppen azt próbálja meg bemutatni, hogy pl. milyen dolgok zajlanak le – és azokból nagyjából mennyi – egy perc alatt az interneten (klikk a képre a nagyításhoz).

Amikor a gyorsítótár lassít…

2011. június 27. hétfő

Talán a legegyszerűbb módszer arra, hogy felgyorsítsuk a böngészőnket az az, ha időnként manuálisan töröljük a gyorsítótárat (cache), vagy kisebbre állítjuk a böngészőben megadott értékeket. Nem gondoltam, hogy egy napon pont erről fogok blogbejegyzést írni, de úgy veszem észre, hogy rengeteg ember nem is tud a gyorsítótárnak még csak a létezéséről sem.

Vannak napok, amikor bizony 24 óra alatt az általam meglátogatott weboldalak száma eléri a több ezret és sajnos – a nevével ellentétben – ilyenkor a böngésző gyorsítótára inkább csak hátrány, mint előny. Csak csendben megjegyzem, hogy eddig sajnos egyik böngésző sem tudott hosszabb távon (mondjuk 48 órán keresztül) megbirkózni az általam megtekintett oldalak mennyiségével (twitter linkek, RSS feedek, webfejlesztés, szakmai anyagok stb), érezhető belassulás nélkül.

A fenti okok miatt naponta, manuálisan (általában akkor, amikor a nap folyamán először a gép elé ülök) törlöm a gyorsítótárat és az előzményeket a Safariból (Chrome-ból, Firefox-ból, vagy ami épp a kezem ügyébe akad), azonban ezt a múlt héten valami oknál fogva sikerült kétszer is elfelejtenem egymás után. Az eredménye az lett, hogy a Safari elég érezhetően belassult és nehézkes volt már a böngészés.

Persze beállíthatnék egy kisebb értéket is az oldalak gyorsítótárazásánál, de mivel webre fejlesztek, ezért a fix szélességű betűtípuson és annak méretén kívül nem módosítom az alapértelmezett beállításokat. Pontosabban dehogynem, a Safarinak nem engedem meg, hogy használja a címjegyzéket, ill. az „Open ‘Safe’ files after downloading sincs kipipálva…

Mire való a cache?

A cache (más nevén gyorsítótár) tulajdonképpen arra való, hogy ha meglátogatunk egy webhelyet, akkor a már egyszer letöltött képek, ill. a webhely részét képező fájlok a merevlemezünkön eltárolásra kerülnek. Amikor pedig a következő alkalommal járunk ugyanazon a weboldalon, a böngészőnek nem kell újból letölteni az oldalt alkotó elemeket, hanem egyszerűen (az internetkapcsolatnál sokkal-sokkal gyorsabb) merevlemezről tölti be azokat, megspórolva ezzel akár több másodpercet, ill. akár több MB hálózati forgalmat is. Jól járunk mi (gyorsabban töltődik be az oldal), jól jár az internetszolgáltató (kisebb hálózati forgalom), ill. jól járnak a szerver üzemeltetői is (kisebb terhelés). Természetesen most itt ne egy olyan oldalra gondoljunk, ami mindennel együtt kitesz 2-3 MB-ot és van naponta 10 látogatója, hanem egy olyanra, ahol van napi százezer oldalletöltés (ez már ugye naponta több száz gigabájtnyi adatforgalmat is eredményezhet).

Ha viszont megnézünk néhány ezer oldalt és az ezekről eltárolt információkat később már nem használjuk fel, akkor azok csak feleslegesen foglalják a helyet a lemezen és feleslegesen lassítják a rendszert.

Tehát összegezve: azokat az oldalakat érdemes gyorsítótárban tárolni, amiket napi rendszerességgel (esetleg naponta többször is) meglátogatunk. Ilyenkor van leginkább értelme a gyorsítótár használatának. Az „ipari méretekben” történő böngészésnél / oldalletöltéseknél inkább hátrány, mint előny.

Egyébként én a magam részéről azt tartanám ideálisnak, ha beállíthatnám, hogy melyik oldalakat tárolja gyorsítótárban a böngésző (az összes többit ne). Sajnos ilyen böngészőt nem ismerek (tessék, itt egy jó ötlet a fejlesztőknek egy újabb funkció beépítéséhez, ami ma még nincs elterjedve). Az Opera beállításai mondjuk elég részletesek, de még az sem az igazi.

A teljesség igénye nélkül összeírtam, hogy az ismertebb böngészőkben hol kell a gyorsítótárat törölni, hátha többeknek hasznos lesz. Ez böngészőnként, operációs rendszerenként és nyelvenként eltérhet, de egy pici körültekintéssel bárki megtalálhatja akkor is, ha egy másik menüpontba lenne eldugva (az alábbi lista Mac OS X-re vonatkozik):

  • Safari
    Safari / Reset Safari…
  • Chrome
    Chrome / Böngészés adatainak törlése…
  • Firefox
    Eszközök / Előzmények törlése…
  • Opera
    Tools / Delete Private Data…

Eközben a Facebookon…

2011. június 22. szerda

Mostanában ilyen és ehhez hasonló üzenetekkel fáraszt a világ legnagyobb közösségi oldala.

Ilyenkor elképzelem magamban, amint a Facebook főhadiszállásán Zuckerberg gépén is felpattan valami hasonló értesítés és ráküld néhány embert a dologra, hogy Csabánál valami nem jó, nézzetek már utána… 🙂

Ez pedig számomra a rejtély kategóriába tartozik. Miért pont 420? Én kocka módjára gondolkodom, plusz még szeretek belátni a dolgok mögé is, hogy mi, hogy és miért pont úgy működik, ahogy. Ha mondjuk 256 vagy 512 lenne, akkor nem tenném fel a kérdést, de így felteszem. Miért pont négyszázhúsz? Nem értem. Ha esetleg valaki rájött, vagy tudja, megírhatná.

Valamivel gyorsabb lesz a hazai domainek regisztrációja

2011. április 22. péntek

Korábban már írtam arról, hogy hazánkban mennyire túl van bonyolítva a domain-regisztráció – már ami a .hu-s végződésű domaineket illeti. Most ezen a két hetes várakoztatáson enyhítettek, de még így is hihetetlenül bonyolult és körülményes pl. egy .eu-s domain bejegyzéséhez képest. Sőt, valójában nem is egyszerűsödik, mert maga a folyamat a korábbinál szerintem még bonyolultabb lesz, csak valamivel előbb juthatunk hozzá az áhított domainhez.

A domain 2011. június 1-től a regisztrációs folyamat elindításakor nem egy kéthetes várólistára, hanem “feltételes használatba adásra” kerül, így már néhány napon belül használatba tudjuk venni. Persze nem Magyarországon lennénk, ha ezt XXI. századi módon oldották volna meg, a technikai vívmányait kihasználva, online megrendelési lehetőséggel, pár perces időráfordítással, SMS-es értesítéssel. Dehogy. Az igénylőlap is megmarad és biztos ami biztos, felteszik egy 8 napos várólistára is, aminek a világon semmi értelme sincs.

Természetesen ennek a változásnak is örülni kell, de úgy érzem, hogy elég messze vagyunk még attól, hogy ez a dolog normálisan működhessen. Persze semmi gond, megszoktuk az ilyeneket, hiszen Magyarországon élünk.

Eladó a linkmania.hu domain

2010. július 16. péntek

Eladó a linkmania.hu domain, mely 2002. április 20-án lett beregisztrálva. Az ára fix: 30.000 Ft. Az elmúlt nyolc év alatt a domain fenntartás és az egyéb költség közel ennyi volt, így az ár a domain korát is tekintve (SEO szempontból nem egy rossz befektetés egy 8 évesnél idősebb domain) egyáltalán nem mondható soknak. A domain árának kiegyenlítéséről természetesen számlát állítok ki.

Története

Az internettel való megismerkedésem óta gyűjtöttem a linkeket. Kezdetben papírra irogattam fel a fontosabb webcímeket, amikor pedig a papír már kevésnek és körülményesnek bizonyult, akkor 3,5″-os floppy lemezen tároltam (így magammal tudtam vinni). Később jött az ötlet, hogy csinálhatnék egy saját linkgyűjtő-oldalt, így beregisztráltattam életem első domain nevét, a szóban forgó linkmania.hu-t. Az oldal html és php3 alapokon működött.

Tehát a LinkMania egy kategorizált linkgyűjtemény volt, de mivel akkoriban még nem volt elérhető felénk az ADSL és sokáig csak sima 56 Kbps modemmel tudtam csatlakozni az internetre, ezért kénytelen voltam megszüntetni az oldalt. Az ADSL-es korszak beköszöntéig nem foglalkoztam a dologgal, csak minden évben befizetgettem a domain meghosszabbításának díját. Azóta pedig minden évben abban reménykedek, hogy majd a következő egy év során oda jutok és tudok vele foglalkozni. Mivel ez mostanáig sem jött össze, így a napokban az eladása mellett döntöttem: ha más esetleg tudja használni, lát benne fantáziát, akkor ne álljon még évekig üresen az oldal. A domain hasznosítására van több ötletem is – sajnos az erdeti elgondolás a mai netes techológiáknak és elvárásoknak köszönhetően már nem állja meg a helyét…

Ha valakit érdekel a domain, akkor itt tud érdeklődni.

Frissítés: időközben a fenti domain elkelt. 🙂

YouTube deep linking

2010. június 21. hétfő

Látom sokaknál azt, hogy belinkelnek valahova egy YouTube videót és utána írják, hogy ennyi perc, ennyi másodpercnél jön a lényeg. Ilyenkor jól jönne, ha egyből a megadott résztől indulna a videó és nem az elejéről. Természetesen erre van a “bemondásos alapú” helyett jóval praktikusabb megoldás, ráadásul kettő is.

Az egyik az az, hogy a videó linkjének a végét kiegészítjük a következő kóddal: #t=1m28s ahol az m előtti szám a percet, az s előtti pedig a másodpercet jelöli, vagyis innen fog indulni a videó annak, akinek megadjuk a linket.

Bár az egész nagyon egyszerű, de vegyünk mégis egy példát az utolsó előtti, általam belinkelt YouTube videóhoz:

A második megoldás pedig az, ha elnavigálunk a youtubetime.com oldalra és megadjuk az eredeti URL-t, a kezdési időt és elkészíti nekünk az új linket a rendszer. Ez az oldal tulajdonképpen csak annyit csinál, hogy a fenti kóddal kiegészíti a címet.

Pay with a Tweet

2010. június 15. kedd

Twitter

Egy külföldi weboldalon találkoztam egy nagyon jópofa és ötletes, ráadásul nagy valószínűséggel nagyon hatékony megoldással @doransky egyik tweet-je nyomán: úgy lehet egy adott tartalmat letölteni az oldalról (pl. egy PDF-et), hogy cserébe nem pénzt, hanem egy tweet-et kértek.

A mai anyagias világban persze rögtön a legtöbb ember első kérdése az, hogy “dehát abból hogy lesz pénz?”. Természetesen ezzel közvetlenül sehogy, ez gyakorlatilag egy gerilla marketing, ami sokkal hatékonyabb és olcsóbb, mint ha az adott szolgáltatás reklámozásáért külön kellene fizetnünk.

Ráadásul így még mindig megmarad az a lehetőség, hogy aki nincs regisztrálva a Twitteren, de mégis letöltené az anyagot, az fizetés ellenében megteheti.

Ötven másodperc az MR1-en

2010. május 27. csütörtök

Ennyire vágták össze a tegnap velem készített pár perces telefonos interjút, mely ma délelőtt hallható volt az MR1 Napközben című adásában. 🙂

Tegnap délután telefonon megkerestek a Kossuth Rádiótól, hogy az általam üzemeltetett néhány apróhirdetéses oldal kapcsán válaszolnék-e pár kérdésre. Más oldalak üzemeltetőivel ellentétben igent mondtam, pár percig tartott csak az egész, annak pedig kifejezetten örültem, hogy nem élő adásban kellett válaszolnom… 🙂

(more…)

Megjöttek az első “fecskék” a Szörcs-ről

2010. április 7. szerda

A Szörcs

A webstatisztikában láttam néhány napja, hogy meghozta (inkább átküldte) a blogra az első látogatókat az egyik “új” hazai kereső, a Szörcs.

2009-ben, amikor még regisztrálni kellett a használatához, akkor megtettem és kipróbáltam, de azóta csak néhány alkalommal használtam. Van benne pár jó és érdekes dolog, mindenképpen érdemes vele foglalkozni és próbálgatni, bár a küllemet és az oldal felépítését a Google után még szokni kell. 🙂

Lehet, hogy majd ha jobban lesz rá időm, akkor csinálok egy komolyabb tesztet a Szörcs-ről és a Bluu-ról is és megírom, hogy hol tartanak ma a hazai “Google-gyilkosok”. 🙂

Egyébként én drukkolok a fejlesztőknek, remélem, hogy a több éves intenzív fejlesztőmunka minél hamarabb meghozza a gyümölcsét.