Uwaga! Trwają prace nad nową wersją serwisu. Mogą występować przejściowe problemy z jego funkcjonowaniem. Przepraszam za niedogodności!

⛔ Potrzebujesz wsparcia? Oceny CV? A może Code Review? ✅ Dołącz do naszej społeczności na Discordzie!

Wprowadzenie do sieci komputerowych

Podtytuł

Marcel Guzenda, Konsultant IT, Twórca Internetowy oraz Przedsiębiorca opowiada o tym jak działają sieci komputerowe. Rozmawiamy m.in. o teoretycznych aspektach, jak również praktycznych. Poruszymy tematy związane z urządzeniami, protokołami oraz softwarem.

Poruszane tematy

Gość: Marcel Guzenda – kim jest i czym się zajmuje
Czy możesz się przedstawić i powiedzieć, co łączy Cię z branżą IT?

Jak wygląda najprostsza forma sieci komputerowych?
Zacznijmy od definicji sieci komputerowych. Jak mogłaby ona wyglądać w najprostszej formie?

Jak wygląda standardowy dzień pracy osoby zarządzającej sieciami komputerowymi?
Kto zarządza sieciami komputerowymi (nazwa stanowiska) i jak wygląda standardowy dzień pracy takiej osoby?

Czy sieci LAN i WAN działają podobnie od strony technicznej?
Większość z nas kojarzy skróty LAN oraz WAN. Czy od strony technicznej taka sieć działa podobnie - chodzi jedynie o obszar “oddziaływania”? Czy na tym etapie powinniśmy poznać inne, podobne skróty?

Czym są modele OSI i TCP/IP?
Istnieje model OSI oraz TCP/IP. Możesz nam coś więcej na ich temat powiedzieć?

Czym są protokoły komunikacyjne?
Czym są protokoły komunikacyjne? Czy możesz pobieżnie omówić najpopularniejsze tj. HTTP(S), (S)FTP, TCP, UDP, IP (+ IPv4 vs IPv6).

Jakie są funkcje routerów, switchy i firewalle w sieci?
Nadszedł czas na urządzenia. Do najpopularniejszych należą Routery, Switche oraz Firewalle. Możesz wyjaśnić jaką funkcję pełnią w sieci i na jakie aspekty warto zwrócić uwagę podczas ich podstawowej konfiguracji?

Jak monitorować i diagnozować sieć LAN oraz WAN?
Jak możemy zidentyfikować, że dana sieć nie działa prawidłowo? Jak monitorować i diagnozować sieć LAN oraz WAN na podstawowym poziomie?

Jakie są wymagane umiejętności z zakresu systemów operacyjnych w pracy sieciowca?
W jakim stopniu powinniśmy znać systemy operacyjne, aby móc zostać sieciowcem? Czy tutaj wystarczy umiejętność posługiwania się terminalem (pomocne komendy) czy coś więcej?

Czy warto uzyskać certyfikat w dziedzinie sieci?
Czy w tej gałęzi IT warto pomyśleć o certyfikacji? Jakie certyfikaty polecisz na start?

Jakie są inne obszary IT, w których znajomość sieci jest pomocna?
W jakich innych obszarach IT znajomość sieci jest pomocna?

Jak skonfigurować sieć LAN w domu, aby wycisnąć z niej jak najwięcej?
Czy możesz podpowiedzieć nam jak skonfigurować swoją sieć LAN w domu (kilka pięter), aby wycisnąć z niej jak najwięcej i nie koniecznie okablowywać każdy pokój? (najczęstsze błędy)

Jakie książki polecasz do nauki sieci komputerowych?
Jaką książkę polecisz osobom, które chcą lepiej poruszać sie po obszarze sieci komputerowych?

Marcel Guzenda – kontakt
Gdzie możemy Cię znaleźć w sieci?

Polecana książka

➡ Wendell Odom, CCNA 200-301 Official Cert Guide Library

Kontakt do gościa

➡ WWW: zrozumsieci.pl

➡ YouTube: youtube.com/marcelguzenda

➡ LinkedIn: www.linkedin.com/in/marcelguzenda/

➡ Instagram: www.instagram.com/marcelguzenda/

Transkrypcja

Dziś moim gościem jest Marcel Guzenda. Marcel opowie nam o tym, jak działają sieci komputerowe. Marcelu, dziękuję, że przyjąłeś moje zaproszenie na rozmowę.

Dzień dobry i dzięki za zaproszenie.

 

Może zacznijmy od Twojej osoby. Powiedz nam, co łączy cię z branżą IT?

Jestem inżynierem z prawie już 15-letnim stażem zdobytym u największych integratorów w obszarze technologii ICT. Skończyłem też studia o specjalizacji Sieci Komputerowe i później, od razu po nich, a nawet w ich trakcie, zacząłem pracować jako sieciowiec. Następnie, zajmowałem się też innymi technologiami, a także szeroko pojętym Pre-Sales’em. Obecnie cały czas pracuję w tym obszarze, bardziej jako konsultant. Dodatkowo niektórzy mogą mnie kojarzyć z YouTube'a czy innych sociali. Poza tym tworzę kursy, szkolenia online z obszarów związanych z sieciami (jak na razie), ale w planie są kolejne.

To może dopytam, bo wspomniałeś, że byłeś też na studiach o takiej specjalizacji – to jak to było, że w ogóle zainteresowałeś się sieciami? Czy to było już wcześniej – czy robiłeś coś związanego z sieciami, czy po prostu zawsze się tym interesowałeś – może jak mieszkałeś u siebie na osiedlu (nie wiem, czy mieszkałeś w bloku), to np. robiłeś sieć? Skąd pomysł, żeby pójść właśnie na taką specjalizację?

Szczerze mówiąc, idąc na studia, jeszcze na samym początku, nie trzeba było wybierać specjalizacji. O sieciach nie wiedziałem wtedy nic, totalnie zero. Nie miałem z nimi nic wspólnego, oprócz tego, że jeszcze za dawnych czasów wdzwaniało się do Telekomunikacji Polskiej, włączało się Bankruta, później był ISDN itd. To było wszystko. Przed studiami, w czasie młodzieńczym, było nagrywanie płyt i składanie komputerów. Na tamten czas to było maksimum mojej inżynierskiej inwencji.

A co do twojego pytania – jak to się stało, że się tym zainteresowałem? Po pierwsze na studiach pojawiła się Akademia Cisco CCNA, ale to mnie wtedy jakoś tak specjalnie nie zajarało. Natomiast, jak to mówią, „potrzeba matką wynalazków” i jako student, może nie biedny, ale świadomie dysponujący ograniczonym budżetem, szkoda mi było kasy na kupowanie internetu, który był na tamten czas dosyć drogi. Troszkę łatwiej było zainteresować się tym, jak to zrobić, żeby skorzystać z tego, że np. ten sąsiad, który mieszkał sobie za ścianą miał Wi-Fi z zabezpieczeniem Web. To były takie pierwsze kroki, gdzie zainteresowałem się sieciami bezprzewodowymi i to poszło dalej.

No to ciekawy przypadek.

Prawdziwy.

No tak, jak to mówią – potrzeba jest najsilniejszym motywatorem do działania.

 

To może zanim będziemy mówić o tym wszystkim, to zdefiniujmy, czym jest sieć komputerowa? Jak twoim zdaniem mogłaby wyglądać taka najprostsza w formie definicja?

Żeby wytłumaczyć to osobom, które nie mają albo nie miały wcześniej za dużo wspólnego z sieciami, osobiście lubię określenie, że sieć komputerowa to są już dwa komputery połączone ze sobą, oczywiście z użyciem odpowiedniego medium transmisyjnego w celu wymiany informacji pomiędzy nimi. Jest to jednak takie bardzo duże uproszczenie, żeby to tylko nieco zwizualizować. Opisując to szerzej – będzie to na pewno większy zbiór komputerów, ale też urządzeń sieciowych np. drukarek, Access Pointów, IP Phonów, a dzisiaj to już niemal wszystkiego od lodówki po pralkę, również z wykorzystaniem określonych mediów transmisyjnych i odpowiednich protokołów sieciowych. Takim uzupełnieniem definicji sieci oprócz samej wymiany informacji, są też wszystkie kwestie związane z udostępnianiem plików pomiędzy tymi komputerami. Dzisiaj jest to także komunikacja bezprzewodowa czy dobrze już wszystkim nam znany, chociażby streaming treści wideo.

Jak tak powiedziałeś tę definicję sieci komputerowej, to pomyślałem sobie, że ty po prostu stworzyłeś sobie z tym kolegą zza ściany sieć?

To ktoś tam miał sieć, a ja się do niej, delikatnie z boku i totalnie nieinwazyjnie dołączałem, żeby z niej czasem skorzystać. Nie wiem, czy to kolega, bo nie znam człowieka pewnie do dzisiaj.

 

Dobrze – to przejdźmy dalej. Kto w takim razie zarządza sieciami? Chodzi mi tutaj o nazwę stanowiska i o to, jak w ogóle wygląda standardowy dzień pracy takiej osoby?

Myślę, że tutaj to bardzo zależy od miejsca, od firmy, od środowiska, w którym ta sieć występuje i ta osoba pracuje. Mamy małe firmy, w których często pracują osoby tzw. all-in-one – takich administratorów, którzy są od wymiany myszki czy tonera w drukarce oraz zajmują się też siecią, utrzymaniem strony firmowej, jakąś bazą danych itd. To są takie malutkie środowiska.

W tych większych środowiskach są to już zazwyczaj jacyś dedykowani admini, którzy tą siecią zarządzają, którzy dbają o jej aktualizację, o jakieś zmiany, o bezpieczeństwo. Jeszcze innym obszarem pracy sieciowców są inżynierowie wdrożeniowi czy architekci, którzy zazwyczaj pracują już u integratorów, dystrybutorów i wdrażają te sieci, w których później tamci administratorzy je utrzymują. Tacy wdrożeniowcy czasami występują w dużych firmach na własne potrzeby – są wykorzystywani w jakiejś dużej korporacji, ale zazwyczaj są to osoby z firm zewnętrznych.

A jak wygląda taki dzień? Znowu, to bardzo zależy od tego, po której stronie tych sieci pracujemy. Taki administrator, tak jak po części powiedziałem, dba o utrzymanie sieci, dba o ciągłość jej działania, o to, że jak coś się wydarzy, żeby mógł on reagować, ale również przygotowywać tę sieć, na to, że jeżeli nawet coś się wydarzy, to żeby ta ciągłość została zachowana. A jeżeli chodzi o pracę inżyniera wdrożeniowego, to jest to często kwestia per projekt – a więc rozpoznania potrzeb tego klienta, dopasowania rozwiązań, zaprojektowania tej sieci, przygotowania dokumentacji, High-level design, Low-level design. Później następuje proces wdrożenia administratorów pracujących w danej firmie i przekazanie im funkcji zarządzania wdrożoną siecią, wdrożonymi rozwiązaniami. Natomiast wdrożeniowiec czy architekt idzie dalej do kolejnego klienta.

Gdy słyszę administrator, to kojarzy mi się z nim ktoś, kto zarządza raczej software’em, a nie hardware’em. Czy mamy tu jakieś rozdzielenie, czy jest to po prostu taka moja bańka, a osoby zajmujące się sieciami są ogólnie administratorami i nie ma takiego istotnego podziału kto się czym zajmuje?

Wydaje mi się, że nigdzie nie ma takiego sztywnego podziału, ale to może brać się z tego, o czym powiedziałem na samym początku – że są tacy administratorzy, którzy zajmują się trochę wszystkim i to oczywiście jest spotykane. Natomiast później, mamy ten podział na to, czy to jest administrator sieciowy, administrator systemowy, czy administrator od baz danych – to będzie już per rola. Czasami my słyszymy tylko administrator i nie wiemy co za tym idzie dalej, natomiast zdecydowanie są administratorzy, którzy zajmują się hardware’em, ale nie tylko tym, bo na tym hardware’rze działa soft, działają narzędzia monitorujące, analizujące itd., więc tam też jest kawałek softu, a nawet często większość softu, bo ten hardware postawi się raz, pospina się go zazwyczaj raz i to nie jest tak, że na co dzień chodzi się koło tego.

OK, to w takim razie zróbmy kolejny krok do przodu, powiedzmy sobie czym jest LAN oraz WAN, bo pewnie większość z nas kojarzy te skróty? Czy od strony technicznej sieci LAN i WAN działają podobnie, czy chodzi jedynie o obszar oddziaływania? Czy na tym etapie powinniśmy poznać inne podobne skróty, jeżeli interesujemy się sieciami?

Myślę, że sieci LAN i WAN są faktycznie najbardziej powszechne i mają one też największe odwzorowanie w rzeczywistości – bo mamy oczywiście sieci takie jak np. MAN czyli Metropolian Area Network czyli sieć na jakimś obszarze, czy PAN, ale są to takie książkowe przykłady, trochę jak Yeti – wiadomo, że gdzieś tam ponoć są, ale nikt ich nie widział. Faktycznie ten podział jest taki, że mamy sieci bardziej lokalne (przy większych sieciach lokalnych czasami nazywane kampusowymi) i te sieci rozległe, a więc sieci WAN: często jest to sieć WAN/Internet, bo jednak sieć Internet jaką znamy działa właśnie w oparciu o sieci rozległe.

Natomiast mówiąc o różnicach, często są to też inne media transmisyjne, bo w sieci LAN spotkamy te tradycyjne miedziane sieci, kawałek światłowodów czy w przypadku sieci bezprzewodowych – takie popularne, oparte o standardy Wi-Fi – tę bezprzewodówkę. Często w sieciach WAN dane są transmitowane inaczej. Sieci bezprzewodowe są nawet oparte o technologie, których ja do końca nie znam, bo nigdy nie pracowałem w operatorce, a wiem, że są.

Jeżeli chodzi o te sieci szkieletowe, wszystko oparte jest tam na mediach o bardzo wysokiej przepustowości i przepływności, działających też na bardzo duże odległości. Do tego dochodzi kwestia zastosowanych protokołów. LAN to często warstwa druga i oczywiście mamy tam adresację IP, ale często warstwa trzecia nie jest tam rozwinięta. W takim LAN-ie możemy jeszcze spotkać się z routingiem pomiędzy VLAN-ami itd., ale to w WAN mamy ten prawdziwy routing, protokół BGP, dzięki któremu działa Internet, jaki my znamy – dzięki któremu dzisiaj, z Wrocławia, Warszawy, w ciągu w zasadzie ułamków sekund, łączymy się z serwerami, odbieramy, wysyłamy zapytanie i odbieramy dane z serwera np. w Stanach czy z innego miejsca. Podsumowując: mamy tu różnicę w mediach transmisyjnych, w protokołach sieciowych oraz w geografii.

 

  1. To jak już trochę zahaczyliśmy o te tematy, o modele, to może powiemy sobie o nich coś więcej, bo jest model TCP/IP czy OSI/OSI – czy możesz nam przybliżyć ich temat?

Przede wszystkim warto zaznaczyć, że ISO/OSI czy TCP/IP są modelami referencyjnymi, tzw. modelami odniesienia. Gdyby ktoś bardzo mocno chciał je przekładać jeden do jednego – to nie są to jakieś takie sztywne silosy, jeżeli chodzi o ich warstwy, czy sztywne, bardzo powiązane z jakąś technologią miejsca. Są to modele służące bardziej do standaryzacji, bo kiedyś, na samym początku, jak producent A i producent B zaczęli produkować sprzęt sieciowy, to było bardzo spoko, bo ten sprzęt sieciowy działał w obrębie tych rozwiązań, ale niekoniecznie komunikował się między sobą. Sprzęty tych producentów mówiły innymi językami i trzeba to było jakoś ustandaryzować. Właśnie wtedy opracowano model ISO-OSI siedmiowarstwowy, żeby spróbować upchnąć tam pewne standardy i na bazie tych standardów budować i rozwijać te rozwiązania. Ci, którzy mieli trochę do czynienia z sieciami, pewnie znają te warstwy, a przynajmniej powinni.

Mamy oczywiście warstwę pierwszą, a więc fizyczną, tam gdzie możemy odnieść te wszystkie media transmisyjne – te media nie znajdują się w tej warstwie, bo nic w tej warstwie się nie znajduje. To jest pewna instrukcja na papierze czy na ekranie, natomiast odnieść możemy to, że w tej pierwszej warstwie mamy media transmisyjne: wszystkie kable, kabelki, jakieś urządzenia pasywne.

Mamy warstwę drugą, a więc warstwę łącza danych (nie będę rozbierał każdej warstwy na części pierwsze, natomiast chcę omówić te najważniejsze z punktu widzenia sieciowca), oprócz tego, że jeżeli chodzi o urządzenia, to tam możemy odnieść switche, mamy tam adresację MAC, VLAN-y itd.

Warstwa trzecia, a więc warstwa sieci to protokół IP, routery. Warstwa czwarta to warstwa transportowa, w której są już porty, jest tam protokół TCP UDP. Dalej mamy warstwy, które nie interesują już za bardzo sieciowców, a więc warstwa piąta – warstwa sesji, potem warstwa prezentacji i aplikacji. Tu je trochę skracam, bo w modelu TCP, który powstał kilka lat później (po modelu ISO/OSI), to wszystko zostało troszkę zunifikowane i zapakowane w cztery warstwy, tak żeby nie nudziło się tym sieciowcom czy deweloperom, którzy piszą aplikacje sieciowe i odnoszą się do tych modeli i żeby nie mieli za łatwo.

Jeżeli chodzi o tradycyjny model TCP/IP (ten model został zaktualizowany, ale za chwilkę jeszcze o tym powiem), który obowiązywał przez lata: mamy tam warstwę pierwszą, tj. warstwę łącza, warstwę drugą – internetową, trzecią (już bez zmian) warstwę transportową, i tutaj znowu, tamte trzy z poprzedniego modelu są połączone w jedną warstwę aplikacji. Z siedmiu warstw zrobiły nam się cztery. Mówię o tym trochę na szybko, bo gdybym zaczynał dzisiaj naukę, to nie przywiązywałbym się do tego – warto o tym pamiętać, warto wiedzieć jaki jest/był ten czterowarstwowy model TCP/IP, natomiast został on jakiś czas temu zaktualizowany i moim zdaniem to był dobry krok, troszkę ułatwiający, bo (tak jak jeszcze przypomnę) w modelu ISO/OSI mieliśmy siedem warstw, w tym modelu dotychczasowym TCP/IP – cztery, a teraz, żeby to troszkę ułatwić, w takim najbardziej aktualnym modelu TCP/IP mamy tych warstw pięć.

Jest to o tyle łatwiej zapamiętać, że mamy faktycznie pierwszą warstwę fizyczną – dokładnie taką jak z modelu ISO/OSI. Mamy drugą warstwę łącza danych – dokładnie taką jak z modelu ISO/OSI, mamy trzecią warstwę sieci – dokładnie tak samo, warstwę czwartą, transportową i tę całą resztę, o której sieciowcy nawet nie pamiętają, bo jest już dla nich troszkę mniej ważna – to jest warstwa piąta, aplikacji. Tak więc z punktu widzenia sieci, mamy tutaj te trzy/cztery najważniejsze dla nas sieciowców warstwy, w których obracają się głównie sieciowcy, plus w tą piątą zamknięto te pozostałe rzeczy i wydaje mi się, że jest to teraz najłatwiejsze do zapamiętania i to był dobry krok.

 

  1. To mamy modele, mamy poszczególne warstwy – chyba czas przejść do protokołów komunikacyjnych? Może mógłbyś nam omówić parę najpopularniejszych protokołów: HTTP czy FTP, TCP, IP, UDP, o którym wspomniałeś wcześniej – tak żebyśmy widzieli, co się z czym łączy i po co to w ogóle jest?

Jasne. Tutaj od razu obiecuję słuchaczom, że nie będzie za dużo detali, bo te rzeczy mimo wszystko, lubią warstwę wizualną – dobrze jest to po prostu pokazać, żebyśmy sobie dobrze zwizualizowali – tak samo, jak w przypadku przed chwilą omawianych modeli referencyjnych. Jeżeli chodzi o protokoły, to znowu, są to pewne języki, w których, na poszczególnych warstwach tamtych modeli referencyjnych, czy to aplikacje, czy urządzenia, czy to, co jest po drugiej stronie, czy cały stos połączenia aplikacji i sprzętu, ze sobą rozmawia. Bez wątpienia takim najpopularniejszym protokołem, który chyba każdy zna, jest oczywiście HTTP oraz jego bezpieczniejsza wersja szyfrowana, czyli HTTPS.

Może używa, a nie zna.

Nie, umówmy się – często widzimy ten HTTPS (chociaż teraz jak wpisujemy adres, to nam się to zasłania). Zdecydowanie polecam HTTPS – jeżeli widzicie stronę, na którą wchodzicie i wyświetla się wam monit, że strona nie ma certyfikatu itd., to warto się tu zastanowić. Jeżeli jest to strona no name'owa, to wtedy nie ma się co zastanawiać tylko nie trzeba w nią po prostu wchodzić. Jeżeli natomiast jest to strona, która według was powinna działać, to warto to gdzieś zgłosić, np. do administratora albo wysłać maila do firmy: słuchajcie, certyfikat chyba wam wygasł, bo HTTPS wam krzyczy po wpisaniu.

Protokół ten używany jest do tego, żeby nasz komputer dogadał się z serwerem i żeby nasz komputer wyświetlił nam na ekranie stronę internetową, którą chcemy zobaczyć. Są to protokoły działające oczywiście w modelu klient-serwer, a więc w naszym przypadku klient (tak naprawdę przeglądarka) wysyła zapytanie do tego serwera, który odpowiada przesyłając treść, o którą pytaliśmy.

Takimi popularnymi protokołami są też protokoły TCP i UDP, które odpowiadają za transport danych. W dużym skrócie, ważnym elementem w tym transporcie jest odpowiedni podział przesyłanych danych na mniejsze kawałeczki. Te protokoły odpowiadają też za to, żeby odpowiednio ponumerować dane po stronie A i poskładać je odpowiednio według tej numeracji po stronie B. Można powiedzieć, że protokół TCP jest w tym bezbłędny, ponieważ ma więcej mechanizmów (tutaj nie będę się wdawał w szczegóły), które służą temu podziałowi i bezbłędnemu ułożeniu po drugiej stronie, a jego drugą rolą jest to, że wtedy mamy pewność, że wszystkie te kawałeczki zostały przesłane na drugą stronę, bo mamy tam potwierdzenie – jest to tzw. mechanizm 3-way handshake.

To brzmi idealnie, natomiast niesie to za sobą pewien narzut, jeżeli chodzi o wydajność, szybkość działania, o ilość przesłanych danych. Pomyślano więc, że ta taka idealna, bezstratna transmisja nie wszędzie jest potrzebna, bo np. jeżeli wysyłamy dane video, one nie muszą być tak krytycznie bezbłędne – czasami widzimy, że gdzieś się łączymy, mamy jakieś przekłamania albo jak się gdzieś wdzwonimy z wykorzystaniem tych technologii, ogólnie mówiąc sieciowych/internetowych, to mamy jakieś przestery albo coś nam przytnie itd., ale jest to w miarę akceptowalne. Natomiast bardzo ważna jest szybkość działania.

Bardzo ważne jest to, żebyśmy szybko wysłali te dane, żeby szybko dotarły one na drugą stronę. Dlatego powstał protokół UDP, który jest po prostu wysyłany i to potwierdzenie niekoniecznie musi być. Dane są tam składane, ale jeśli po drodze jakiś kawałek zgubi się przy wysyłce i zostanie to poskładane, to gdy tego kawałka zabraknie to nic wielkiego się nie stanie – co byłoby niewybaczalne w przypadku chociażby wyświetlania stron, jeśli mielibyśmy mieć jakieś artefakty, przekłamane zdjęcie czy coś podobnego. Warto to zapamiętać. Podsumowując – TCP to protokół pewniejszy, gdzie nie znajdziemy błędów, ale jest troszkę wolniejszy w działaniu, wymagający przede wszystkim większych zasobów. UDP jest szybszy, ale aplikacje, protokoły, które go wykorzystują, pozwalają na pewne błędy w zamian za tą szybkość. Jak to się mówi: albo jest szybko, albo jest dobrze. Ma to tutaj bardzo dobre odzwierciedlenie.

Kończąc ten przydługi wywód o protokołach, nie można zapomnieć o protokole internetowym, a więc protokole IP – czyli o tym co wpisujemy adresując nasz komputer (albo nie wpisując, bo on sobie to pobiera z serwera DHCP). Protokół ten odpowiada za adresowanie naszych urządzeń sieciowych oraz za to, że router wie jak przeroutować pakiety do naszych urządzeń pomiędzy różnymi sieciami. Oczywiście najpopularniejszym protokołem jest IPv4, który jest z nami od lat i od lat miało go nie być, a cały czas z nami jest dzięki niektórym zabiegom, jak chociażby mechanizm NAT i częściowe wdrażanie IPv6, który jest jego następcą. IPv4 i IPv6 są to zdecydowanie dwa najpopularniejsze protokoły. IPv4 jest już dawno na wyczerpaniu, natomiast mamy bardzo dużo adresów IPv6, bo jest on po prostu bardziej złożony – heksadecymalnie, a IPv4 jest po prostu binarny. Tu już nie wchodźmy w detale – najważniejsze jest to, że mamy protokół internetowy i popularne protokoły IPv4 i IPv6, które są bardzo często stosowane i używamy ich nawet o tym nie wiedząc, bo są one często stosowane w sieciach WAN, w operatorce.

To dopytam tylko – wersja czwarta została zmieniona głównie z tego powodu, że zaczęło brakować adresów czy był też inny powód?

Tak, gdy protokół IPv4 był wdrażany i zaprojektowany, nikt w ogóle nie przewidywał, że na świecie pojawi się tak dużo urządzeń sieciowych, będą telefony, smartwatche, urządzenia IoT, poszczególne sensory. Przybywa tego bardzo dużo i już dawno temu wiadomo było, że adresów będzie za mało. W szczególności dlatego, że jeszcze na samym początku, bardzo duże pule adresów IP zostały przydzielone (można powiedzieć rozdane) pewnym dużym organizacjom takim jak Apple, IBM itd., więc skurczyła się ilość adresów dla użytku powszechnego. Oczywiście później (a może nawet od samego początku) wykrojono adresacje prywatne, które działają w naszych sieciach LAN i przy pomocy mechanizmu natowania, a więc pewnego rodzaju przerzucenia tego, co jest w adresie prywatnym, nadania temu pewnego numerka i wrzucenia tego potem jako adres publiczny, ale z jednym adresem publicznym – możemy się już komunikować na zewnątrz. Dzięki temu to może funkcjonować. Jako ciekawostkę dodam, że IPv6 tego mechanizmu nie potrzebuje. Tych adresów jest tak dużo, że protokołem IPv6 możemy sobie zaadresować wszystko, co mamy w swoim mieszkaniu adresami publicznymi i nadal będzie ich bardzo, bardzo dużo.

To ja jeszcze pamiętam, jak tworzona była u mnie sieć osiedlowa i został mi chyba nadany numer 10.1.1.56 i za każdym razem jak zrobiłem coś z moim Windowsem – musiałem go sformatować, to musiałem sobie to potem odpowiednio skonfigurować, żeby to wszystko działało. To było 20 lat temu.

Dokładnie tak. Dzisiaj, cały czas w obszarze adresacji prywatnych, możemy robić sobie z nimi to co chcemy we własnych domach. One nie są routowalne, one nie pójdą w internet – jak skonfigurujemy sobie router z adresem prywatnym, to nic się tam nie zadzieje (oczywiście chodzi tu o router po stronie interfejsu WAN-owego). Natomiast jeżeli kupujemy sobie internet do domu u jakiegoś lokalnego operatora, to często musimy dopłacić jeszcze 10 lub 20 złotych miesięcznie, aby był to stały adres, żeby był on tak jakby przypisany do nas – inaczej mamy adres zmienny, który co jakiś czas rotuje w puli adresów między odbiorcami internetu danego operatora. Natomiast mając firmę, zazwyczaj potrzebujemy po pierwsze stałego adresu, a czasami, jeżeli wystawiamy jakieś usługi, jakieś serwery na zewnątrz, to takich adresów publicznych musimy mieć kilka czy kilkanaście – to już sporo kosztuje właśnie dlatego, że tych adresów jest tak mało.

To jeszcze jedna rzecz odnośnie do protokołów, bo wspomniałem o FTP, który chyba obecnie już nie jest tak popularny – czy chciałbyś nam przybliżyć coś na jego temat? Kojarzy mi się z nim to, że dzięki niemu wrzucałem sobie pliki na serwer. Teraz nie jest to już chyba tak popularne, ale widzę, że jest ciągle dostępne. Możesz nam coś więcej powiedzieć na temat tego protokołu?

Jak sama nazwa wskazuje (File Transfer Protocol, czy potem jeszcze SFTP, a więc Secure File Transfer Protocol), tak jak sam powiedziałeś, były to protokoły powszechnie stosowane do przesyłania danych, przede wszystkim w internecie. Dzisiaj zostały one w dużym stopniu zastąpione przez aplikacje, które wykorzystują już po prostu HTTPS-a albo jakieś inne protokoły, natomiast nie robimy już tego tak niskopoziomowo – nie musimy skonfigurować tego FTP-a itd. Co robimy dzisiaj? Dzisiaj mamy Google Drive'a czy innego Dropboxa i najczęściej odbywa się to właśnie przez nie. Na pewno coraz rzadziej używa się FTP i przede wszystkim te protokoły są coraz mniej widoczne.

 

Za nami protokoły, to chyba najwyższy czas porozmawiać też na temat urządzeń – do najpopularniejszych należą routery, switche, firewalle. Czy możesz nam przedstawić (oczywiście tak jak do tej pory w telegraficznym skrócie) jakie funkcje pełnią w sieci te urządzenia i na jakie aspekty w ogóle warto zwrócić uwagę podczas ich podstawowej konfiguracji?

Wreszcie jakieś ciekawe pytanie, bo całe życie byłem bardziej „sprzętowy”. Tutaj znowu – postaram się opowiedzieć o nich bardzo pokrótce, bo ogólnie o sprzęcie mogę opowiadać godzinami, a nie będziemy też robić tutaj jakiegoś szkolenia z sieci (nawet ich fundamentów), bo do liczby godzin naszej rozmowy musielibyśmy dopisać jakieś zero. Są takie trzy, cztery najpowszechniejsze urządzenia, rozwiązania sieciowe, z których korzystamy na co dzień. Zacznijmy od tej sieci LAN – tu oczywiście mamy switche, choć wypadałoby w ogóle zacząć od karty sieciowej w komputerze, bo ona też jest już jakimś aktywnym urządzeniem sieciowym, ale traktujemy to już dzisiaj jako jeden byt, stację końcową – jako hosta. Switche łączą nasze komputery w sieciach LAN – jeżeli kablowo to bezpośrednio, jeżeli nie, to do tych switchy są wpięte punkty dostępowe, punkty sieci bezprzewodowej i tam bezprzewodowo do access pointa łączy się komputer, ale już z tego access pointa kablowo do switcha access point i inne urządzenia sieciowe jak drukarki, IP Phony, kamery, itd.

Switche jest to głównie warstwa druga, adresacja MAC, z których switch buduje sobie tablicę adresów MAC – a więc w takim dużym uproszczeniu, zapisuje sobie w takiej tablicy, że aha z tego portu tutaj zgłosił się do mnie ziomek o takim adresie MAC, to ja go zapisuję, że on jest na tym porcie i później jak jest zapytanie od innego, to on już wie, żeby szybko tę ramkę tam przerzucić.

To ja może jeszcze tylko wejdę w zdanie i dopowiem, że ramka to po prostu jakieś dane, które są przekazywane dalej – można to w ten sposób to powiedzieć.

Tak, jest to właśnie ten rodzaj danych, jaki jest przesyłany w warstwie drugiej, bo w warstwie trzeciej mamy już pakiety – tam następuje proces enkapsulacji lub dekapsulacji, ale nie wchodźmy już w to aż tak głęboko. Kończąc wywód na temat switchy, mamy tam też pozostałe mechanizmy – protokoły związane z warstwą drugą, takie jak VLAN-y, jak Spanning Tree, jeżeli tych switchy mamy więcej w sieciach czy różnego rodzaju mechanizmy bezpieczeństwa. Są to głównie switche sieci LAN, oczywiście są czasami stosowane gdzieś tam w szkielecie, ale tam mamy głównie routery, do których teraz przejdziemy.

Routery zazwyczaj kojarzą się nam z takimi mydelniczkami z kilkoma antenkami i co do zasady nie jest to nic złego, tylko trzeba powiedzieć, że jest to tylko fragment całości. Z punktu widzenia sieci, routery służą głównie za podstawę budowy sieci WAN, a więc tego, że tak naprawdę mamy Internet. My mamy jeden router, który jest brzegiem naszej sieci i łączy tę sieć LAN ze światem zewnętrznym. Nawet jak spojrzymy sobie na nasz routerek, na jego oznaczenia z tyłu, to jeden port będzie jako WAN i powiedzmy cztery porty będą jako LAN – mamy tam te dwie strony.

To może zapytam, czy taki router można nazwać jako switch plus właśnie wyjście do Internetu?

Tak, to jest taka mydelniczka – tam jest switch, router, access point. Mówię o tych domowych routerach, bo w tych firmowych te funkcje będą zazwyczaj rozdzielone na różne urządzenia. Będziemy mieli osobne switche, bo one będą często rozmieszczone w punktach dystrybucyjnych na poszczególnych piętrach np. biurowca. Natomiast jeden centralny router będzie np. w serwerowni czy w jakimś punkcie centralnym, a nie per każde piętro. Wracając do routerów, to nasz router jest na brzegu sieci – w zależności od tego, jaka jest konstrukcja sieci operatora, jakimś światłowodem będzie sobie to biegło do punktu dystrybucyjnego tego operatora.

Od niego do jeszcze większego operatora i tamci duzi operatorzy, rozlokowani już po danym kraju, łączą się potem z operatorami w innych krajach. Jeżeli wysyłamy coś za ocean, to leci to sobie światłowodem na dnie oceanu i znowu, wychodzi to z tego oceanu, wpada do jednego, drugiego, trzeciego operatora i znowu gdzieś na brzeg sieci danej serwerowni i to zapytanie wpada już sobie do serwera np. Facebooka, YouTube'a czy innego serwisu.

Jeszcze tylko dopytam o światłowody – tak od strony użytkownika: jeżeli widzimy ofertę światłowodu, to oznacza to, że tak samo jesteśmy w stanie wysyłać i odbierać czy to nie jest związane ze światłowodem tylko sposobem infrastruktury, do której mamy dostęp?

Z tego co wiem, to raczej nie ma znaczenia to, co możemy wysyłać i odbierać. Oferta światłowodowa ogólnie w dużej mierze polega w ogóle na możliwości dostarczenia jakkolwiek działającego Internetu, bo światłowód po prostu działa na większe odległości, a zwykły kabel sieciowy działa w idealnych warunkach do 100 metrów, w praktyce różnie, 70-80 metrów, więc fizycznie bardzo trudno było doprowadzać szybkie łącze w technologii Ethernet do użytkowników końcowych. Dlatego wykorzystywano pewne instalacje do transmisji danych, tak jak np. w przypadku kablówek, wcześniej były łącza telefoniczne itd., bo po prostu były ograniczenia, a najprościej było w technologii Ethernet.

Z tego powodu powstały światłowody, które totalnie znoszą to ograniczenie odległościowe, ale dają też o wiele większą przepustowość. Trzeba mieć tylko na uwadze, że co nam z przepustowości – bo światłowód może dawać dziesiątki gigabitów przepustowości – jeśli nasz routerek w domu ogarnie 200-300 mega. Na wszystko trzeba popatrzeć realnie. W tej ofercie dużo jest też marketingu. Często możemy wcale nie potrzebować tego światłowodu, bo możemy mieć dobrą instalację tradycyjną. Ja u siebie mam instalację tradycyjną i nie narzekam – 1 gigabit, który mam zadeklarowany w umowie z operatorem w górę i w dół i działa to na poziomie 700-800 megabitów i jest bardzo OK. Odpowiadając – światłowód jest jak najbardziej OK i nawet u mnie w domu rodzinnym, gdzie wcześniej była jakaś kablówka i teraz zostało to zmienione, doprowadzony został światłowód, a jest to mniejsza miejscowość, dom na osiedlu, a ta poprawa jest znaczna. Oprócz tego, że wczoraj moja mama kopiąc w ogródku przecięła ten światłowód szpadlem – tak, że pozdrawiam mamę. Może chciała pobawić się troszkę w sieciach, tylko zaczęła chyba od złej strony.

Było za dużo oglądanego internetu.

Właśnie tak może być. Wracając na sekundę do routerów, oprócz tego, co powiedziałem – tej konstrukcji całego WAN-u, który opiera się na routerach, które rozmawiają ze sobą z wykorzystaniem protokołów routingu (te nasze domowe, ale mówię o typowych funkcjach routera, pomijam jakieś Wi-Fi itd., bo z mojego punktu widzenia to są osobne urządzenia, ale zaimplementowane w jedno urządzenie), mamy jeszcze usługi należące typowo do routerów, np. natowanie, o którym już wspominałem przy okazji adresacji, jakieś mechanizmy bezpieczeństwa.

Często na takich routerach, w mniejszych sieciach, jest też uruchamiana usługa serwera DHCP, w domach jest to standard, w mniejszych firmach często też. Kolejne, coraz ważniejsze urządzenia to oczywiście punkty sieci bezprzewodowej, Access Pointy. W większych firmach tych Access Pointów potrafią być dziesiątki, setki – jeżeli mówimy o biurach, o każdym poziomie takiego biura – żeby pokryć te biura sygnałem bezprzewodowym. Często ich po prostu nie widzimy, bo są one montowane przy sufitach, a czasami nawet nad sufitami i nie zdajemy sobie sprawy, że one są, ale jak przypatrzymy się gdzieś w galeriach, czy na jakichś dworcach, to widać takie wiszące mydelniczki i to właśnie dzięki nim mamy internet bezprzewodowy. Access Pointy mogą występować samodzielnie w małej ilości – dwóch, trzech. W większych strukturach są centralne kontrolery, dedykowane urządzenia, kontrolery sieci bezprzewodowej, które zbierają wszystko to, co przesyłają do nich Access Pointy i po pierwsze zarządzają tymi Access Pointami, tak żeby one dobrze działały: regulują im radia, kanały itd., dbają o bezpieczeństwo, przerzucają te dane dalej.

Jeżeli chodzi o urządzenia, mamy jeszcze na pewno Firewalle, które znowu znajdują się na brzegu sieci, zależy od architektury, czasami ten router jest przed Firewallem, czasami jest odwrotnie, czasami Firewall pełni funkcję routera, zależy to już bardzo od architektury i od środowiska lokalnego. Czasami może zdarzyć się tak, że taki Firewall jest w formie jakiegoś appliance'a software'owego, albo właśnie jakiejś dodatkowej funkcjonalności routera, lub takiego UTM-a czyli rozwiązania bardziej uniwersalnego.

Chciałbym dopytać jeszcze o Firewalle – czy obecnie częściej spotykamy je w formie urządzenia, czy bardziej jako software?

Zdecydowanie jako urządzenie, jako dedykowany appliance, przynajmniej w środowiskach Enterprise.

To jaka jest przewaga urządzenia nad softwarem?

One są dużo bardziej zoptymalizowane i pod wydajność – urządzenia software'owe to zawsze jest jakiś koszt optymalizacji. Silnik na Firewallu musi dogadać się z tym sprzętem, z architekturą x86, tą warstwą compute, tym takim tradycyjnym RAM-em, tradycyjnym procesorem itd. To nigdy nie będzie takie scalone, takie dopasowane. W przeciwieństwie do właśnie urządzenia fizycznego – tam też oczywiście mamy RAM, mamy procesor, mamy też często jakiś storage – natomiast tam, co do zasady, wszystko jest bardzo mocno spasowane, to po pierwsze. Po drugie, tam nie ma nic pomiędzy. W takim appliance firmowym, jeśli występuje on jako wirtualka, pomiędzy nim jest jeszcze Hypervisor i dopiero sprzęt, a jeżeli jest to jeszcze zainstalowane na jakimś systemie, to jest jeszcze system operacyjny, dopiero Hypervisor, sprzęt – więc spotykane są takie rozwiązania, one dobrze działają, one się sprawdzają w wielu sytuacjach, natomiast z moich obserwacji wynika (i z tego co wiem od producentów, czy ludzi, którzy z tym bliżej pracują), po to właśnie mamy ten appliance, żeby on działał po pierwsze wydajnie, a po drugie, co bardzo ważne – są to jednak niezależne urządzenia fizyczne. Jeżeli robi nam się jakiś bałagan w sieci, jeżeli ten Hypervisor zostałby w jakiś sposób zaatakowany, to tracimy też od razu Firewalla. Tutaj producent, pracując nad wszelkiego rodzaju lukami itd., ma wpływ na własne urządzenie, bierze za to jakąś odpowiedzialność i pilnuje tylko tego pudełka, aby ono pilnowało tego, co jest w sieci i zabezpieczało tę sieć, ale żeby też odpowiednio zabezpieczało samo siebie.

OK, tylko pewnie wszystko rozchodzi się o pieniądze? Rozumiem, że taki hardware nie jest tani, natomiast software jest dużo tańszy, więc nie zależy nam na optymalizacji?

Nie, to tak niestety nie działa. Często to i to jest tak samo drogie, bo co do zasady, płacimy często za funkcjonalność, a już dawno temu przestaliśmy płacić realnie za sprzęt. Trochę nie widzimy tego z perspektywy takiego tradycyjnego użytkownika, bo idąc do sklepu faktycznie kupujemy to pudełko, natomiast w środowiskach Enterprise często jest tak, że np. kupujemy jakiś switch 48 portowy, ale na ten moment ma on aktywne 24 porty, bo jest to jakiś switch do data center i on kosztuje np. 10 tysięcy dolarów (z tymi działającymi 24 portami). Jeżeli chcemy uruchomić potem pozostałe 24, bo tak nam się rozrósł biznes, płacimy 10 tysięcy dolarów. Tak więc niekoniecznie ta cena hardware'u jest rozłożona, natomiast ona sama w sobie nie jest tak istotna, co utrzymanie działu R&D, utrzymanie tych wszystkich aktualizacji, czy w tych mądrzejszych firewallach, jakieś sygnatury IPS i IDS – nad tym cały czas muszą pracować ludzie i to musi być dystrybuowane w ten sam sposób na appliance fizyczny i software'owy, więc trzeba to mieć na uwadze.

OK, to ciekawe – zadałem to pytanie dlatego, że rok albo dwa lata temu, jeden z moich klientów chciał nam kupić serwer fizyczny. Były różne oferty i między innymi był do wyboru firewall fizyczny, który kosztował chyba 50% więcej (teraz już nie pamiętam).

Jasne, to bardzo zależy od producenta, rozwiązania – nie mówię, że tak nie jest, ja tylko podałem przykład, że czasami ta cena sprzętu, tego hardware'u, jest rozłożona lub zaszyta w cenie rozwiązania. Ceny to jest jeszcze inny temat, bo często trzeba brać pod uwagę cały cykl życia produktu, a nie tylko zakup, bo sam koszt zakupu może być jeden, ale potem są kwestie związane z aktualizacjami, z supportem, z różnymi subskrypcjami, licencjami itd., więc często ten sprzęt, o którym mówimy, jest najtańszy.

 

Dobrze, no to idźmy dalej. Wspomniałeś trochę o tym, czy coś działa, czy nie działa i ile będzie działać, więc zapytam o to, jak w ogóle zidentyfikować, że dana sieć nie działa prawidłowo? Jak monitorować i diagnozować sieć LAN czy WAN na takim podstawowym poziomie, jeśli po prostu zainteresowaliśmy się tematem, chcemy pogrzebać coś u siebie, nie działa nam coś – co tu możemy zrobić?

Z perspektywy użytkowników domowych zazwyczaj jest to dosyć zero-jedynkowe – albo ta sieć nam będzie działała, albo nie będzie działała. Oczywiście możemy użyć jakichś ogólnodostępnych i powszechnie znanych narzędzi: na początek, na adres naszej bramy w naszej sieci możemy puścić jakiegoś Pinga, żeby wiedzieć, czy wykrzaczyło się coś u nas, w naszym LAN-ie, czy nasza stacja gada z routerem. Jeżeli dostajemy zwrotkę, OK, możemy spróbować puścić Pinga na adres routera (jeżeli znamy adres routera operatora), albo w drugą stronę – zacząć od końca, czyli od razu sobie zapingować jakieś cztery jedynki czy cztery ósemki, a więc jakieś DNS-y Google'a czy właśnie Cloudflare. Wtedy, jeżeli to nam coś odpowiada, to wiemy, że nasz komputer komunikuje się ze światem zewnętrznym, ale nie otwiera się nam jakaś konkretna strona. To znaczy, że ta strona się wysypała, a nie ogólnie nasza sieć. Możemy użyć traceroute’a, który również zbada nam całą ścieżkę i pokaże, w którym momencie ta komunikacja się urywa.

Fajnie, że na początku powiedzieliśmy o modelach odniesienia, czyli ISO/OSI i TCP/IP, bo teraz odnoszę się do tego – po to są modele odniesienia, warstwy – często taki tzw. troubleshooting sieciowy zaczynamy właśnie od dołu, od warstwy pierwszej. Sprawdzamy, czy urządzenia mają zasilanie, czy czyjaś mama nie przecięła kabla szpadlem na przykład, czy jakaś wkładka się nie spaliła, a więc sprawdzamy to, co jest takie namacalne, fizyczne, bez względu na to, czy to jest urządzenie aktywne, czy pasywne. Później sprawdzamy, czy w warstwie drugiej Spanning Tree nie zablokowało nam jakiegoś portu, czy tam nie ma jakiejś burzy rozgłoszeniowej i po prostu, czy nie ma jakichś pętli w tej sieci.

To może zanim przejdziemy dalej, dopytam o dwie rzeczy. Jeśli chodzi o Ping, to możemy po prostu w terminalu wpisać komendę i sprawdzić, jaki jest czas odpowiedzi. Teraz chciałbym zapytać o tę odpowiedź – jeżeli na co dzień mamy np. 5 milisekund, a danego dnia mamy 20 milisekund, to jest to sygnał, że coś może nie działać u nas czy po prostu może to być inny powód?

Nie wiem, 5 a 20 to chyba musimy być jakimiś zapalonymi graczami, żeby to miało dla nas znaczenie. W takim zwykłym użytkowaniu pewnie tego nie odczujemy. Taką sytuację warto po prostu obserwować. Jeżeli te opóźnienia są coraz większe, to w domowej sieci raczej nic tu się nie będzie działo. W dużej ilości przypadków, coś będzie się działo raczej po stronie operatora, a w domu może być to kwestia zainfekowanego komputera, który bardzo nam spowalnia warstwę sieciową, albo mamy jakiś uszkodzony kabel – małe prawdopodobieństwo. To albo będzie działało, albo nie będzie działało.

Dopiero w sieciach większych może powstać jakaś pętla, jakieś łącze może być wysycone, bo to pasmo nie ma żadnego QoS, to pasmo nie jest rozdzielane i jakaś aplikacja zżera cały transfer i przez to ta rura jest zapchana i mamy te opóźnienia. Trzeba na to więc spojrzeć per case. W takim tradycyjnym użytkowaniu warto to poobserwować i jeżeli faktycznie przez dzień, dwa, trzy mamy te Pingi większe albo coraz większe, te czasy odpowiedzi są coraz dłuższe lub część tych odpowiedzi nam po prostu wypada i zamiast cztery na cztery, to dwa/trzy do nas wracają, a jeden się gubi – wtedy można to zgłosić do operatora.

To jeszcze dopytam, bo wspomniałeś o większych sieciach – zastanawiam się, czy z twojej perspektywy, obecnie te różne urządzenia smart są problematyczne? Jak ja zaczynałem przygodę z programowaniem, z internetem, to był jeden komputer – a teraz każdy z użytkowników ma telefon. Jest tablet, pralka, lodówka, klimatyzacja, są jakieś inne urządzenia smart, które kontrolują temperaturę, otwieranie okien itp. Czy to, że tych urządzeń jest teraz w domu np. czterdzieści, to jest już jakiś problem? Czy liczy się to bardziej w setkach?

Problem to pojęcie względne, bo problem możemy mieć już z dwoma urządzeniami, jeżeli któreś z nich będzie sprawiało realny problem, który będzie rzutował też na pozostałe. Oczywiście, im więcej urządzeń w sieci, zarówno tradycyjnych, jak i tych z IoT, tym prawdopodobieństwo czy szanse na jakieś problemy się zwiększają. W takim typowym scenariuszu dla domu, to co ja polecam – jeżeli nasz router daje taką możliwość lub mamy jakiś zarządzalny switch, gdzie możemy podzielić sieć na VLAN-y, to zróbmy jakąś sieć podstawową – LAN faktycznie dla naszych komputerów, dla tego wszystkiego, do czego mamy pełne zaufanie, dla tego co ma gadać ze sobą i to jest OK.

Zróbmy drugi VLAN dla tych wszystkich urządzeń IoT, szczególnie że to są często jakieś gniazdka, kamerki itd. – wszystko sprowadzane z Chin. Nie wiadomo tak naprawdę kto przy tym grzebał i co tam jest. Warto to oddzielić i wrzucić do innej podsieci. Ewentualnie jeżeli mamy taką potrzebę, to możemy wykonać bardziej konkretny ruch, już w pełni kontrolowany – możemy przerzucić sobie pomiędzy tymi VLAN-ami, bo jeżeli mamy jakąś kamerę, a ona nam nagrywa na NASA, którego NASA mamy w sieci A, a tamtą kamerę mamy w sieci B – możemy przekierować tylko ruch z kamery (zapis tego wideo) do NASA.

To samo, jeżeli chodzi o sieć dla gości – gdy wpada do nas ekipa na imprezę – jednych znamy, innych mniej. Nawet nie o to chodzi, bo to może być nasza rodzina, do której mamy pełne zaufanie, ale nigdy nie mamy pewności na jakie strony wchodzili nasi goście przed przyjściem do nas i co mają w swoich smartfonach czy laptopach. Zróbmy więc oddzielną sieć gościnną, którą możemy sobie włączyć przed ich przyjściem, wyłączyć, nawet z jakimś prostym hasłem, bo to nie musi być wcale silne hasło, jakiego warto używać dla naszej sieci codziennej (mówię o Wi-Fi, bo to dotyczy zazwyczaj sieci bezprzewodowych).

Ciekawy jestem, ile osób faktycznie robi osobną sieć dla gości? Spotkałeś się z takimi rozwiązaniami?

Tak, ja mam.

OK, właśnie tego chciałem się dowiedzieć.

A wcale nie jestem (co można byłoby o mnie pomyśleć) jakimś geekiem w obszarze zaawansowania i komplikowania sobie życia na co dzień, ale to jest podstawa, którą dzisiaj powinniśmy stosować: minimum trzy VLAN-y, a więc ten nasz podstawowy, VLAN dla gości i na urządzenie IoT.

To ja postanawiam poprawę i po naszej rozmowie będę chciał coś takiego wdrożyć.

 

Teraz dalszy ciąg moich pytań, bo zawsze ciekawiło mnie to, w jakim stopniu powinniśmy znać systemy operacyjne, aby móc zostać sieciowcem? Czy tutaj wystarczy umiejętność posługiwania się terminalem, tak jak wspomnieliśmy o tych komendach, które sprawdzają nam sieć, czy powinniśmy wiedzieć coś więcej?

Jak to się mówi w IT – to zależy. Tylko zawsze jest pytanie: zależy od czego? W tym przypadku to zależy od stanowiska, na jakim pracujemy, z jakimi systemami pracujemy i jaką rolę pełnią te systemy. Ja np. w życiu nie byłem jakimś nawet specjalistą, nie znam się za bardzo np. na Linuxie, a byłem przez 15 lat sieciowcem. I to nie dlatego, że mi się nie chciało, tylko nie miałem realnie potrzeby. Po prostu u mnie – czy to był komputer na Windowsie, czy dzisiaj na macOS-ie – to jest tylko narzędzie, to jest tylko okno, w którym łączyłem się z jakimiś innymi systemami.

W moim przypadku o wiele ważniejsza była znajomość CLI na rozwiązaniach Cisco niż poszczególnych komend. Oczywiście, pewne podstawy jak najbardziej trzeba było znać, ale nigdy nie musiałem kompilować tego jądra na Linuxie (czy innych rzeczy, które się tam robi). Ważniejsze były komendy niż dogłębna znajomość systemów, ale to tylko w takim przypadku, o którym mówię, bo co innego, gdy na takim Linuxie będziemy mieli postawione jakieś elementy sieci – na Linuxie możemy mieć odpalony router, możemy mieć serwer DHCP i wiele innych usług i wtedy jak najbardziej ta znajomość danego systemu będzie potrzebna. Tak samo jak znajomość Windowsa i Active Directory – jeżeli mamy jakiś bardziej rozbudowany serwer DNS. W przypadku wszystkich narzędzi, aplikacji do monitorowania sieci, diagnostyki – wtedy wracamy do tego, że warto te systemy znać bardziej per potrzeba. Jeżeli zaczynamy to warto znać podstawy Linuxa, Windowsa, a później życie (albo zapis w ofercie pracy) pokaże nam, co będziemy potrzebować.

 

A jak wygląda sytuacja z certyfikatami? Czy polecisz coś na start? W różnych branżach IT nie zawsze jest to istotne – jak to wygląda, jeśli chodzi o sieci?

To jest to, co zawsze mówię na swoich webinarach, czy też swoim kursantom – certyfikaty w IT to nie jest paszport, to nie działa zero-jedynkowo, czy my gdzieś przejdziemy przez jakąś bramkę, czy nie. Poza sytuacjami, tu przykład z mojego obszaru sieci, gdy są to certyfikaty branżowe z obszaru, który dany partner, powiedzmy integrator, potrzebuje do utrzymania certyfikacji u danego producenta. Wtedy one faktycznie mają taką trochę zero-jedynkową wagę, bo np. partner na poziomie Gold w partnerstwie z Cisco musi mieć czterech inżynierów z certyfikatami CCIE, które są cholernie trudne w zdobyciu – trzeba poświęcić mnóstwo czasu, wiedzy, energii, żeby je zdobyć. Natomiast tak to wtedy działa.

Na niższym poziomie, znowu przykład Cisco, na pewnym poziomie certyfikacji trzeba mieć co najmniej dwóch inżynierów z certyfikatem CCNA – ale mówię tu o takich bardzo specyficznych sytuacjach, gdzie te certyfikaty grają taką zero-jedynkową rolę. Dla nas – po pierwsze, zawsze lepiej mieć niż nie mieć: jeżeli pójdziemy na rozmowę rekrutacyjną i będziemy mieli (w bardzo hipotetycznym scenariuszu) dokładnie takie same kompetencje, tę samą wiedzę, to samo będziemy umieli, ale my będziemy mieli certyfikat, a ktoś nie, to jednak może to przechylić szalę na naszą korzyść.

Inny przypadek: jeżeli dopiero się uczymy to często ścieżka nauki wytyczona w ramach takiego egzaminu/certyfikatu, w efekcie może być dla nas pewnego rodzaju drogowskazem jak się uczyć. Może to być mobilizacja, bo jeżeli zapłacimy 300 dolarów, zapiszemy się na egzamin, który będzie za pół roku, to może to być kop do tego, żebyśmy się uczyli. Certyfikaty mają wiele twarzy, a jeżeli chodzi o sieci – od lat, Cisco CCNA będzie na pewno takim dość ważnym wstępem.

Czyli to jest certyfikat, który niekoniecznie trzeba mieć do pierwszej pracy, ale na dalszym etapie tak?

Nie ma czegoś takiego jak wymagany certyfikat. Często widzimy w ogłoszeniach „certyfikat CCNA lub wiedza na jego poziomie”. Zdecydowanie polecam mieć to pierwsze – nigdy nie polecam mieć tego drugiego, czyli mieć certyfikat, a nie mieć wiedzy. Trzeba mieć wiedzę albo wiedzę i certyfikat, który ją potwierdza. Nie odwrotnie, bo można się szybciutko wywrócić. Oczywiście są takie certyfikaty niższego poziomu, które trochę łatwiej zdobyć, np. Cisco ma chyba CCST. W każdym razie CCNA jest taką furtką do tych często poważniejszych sieci, ale nie jest na pewno przepustką ani paszportem.

 

Dobrze. Skupiliśmy się trochę na osobach, które szukają swojego miejsca w IT przez sieci, a jak to jest z innymi? Czy twoim zdaniem w innych obszarach IT znajomość sieci pomaga? Po tym, co sobie powiedzieliśmy, pewnie odpowiedź jest jednoznaczna, ale czy mógłbyś ją nam bardziej rozszerzyć?

Uważam, że znajomość sieci komputerowych jest jednym z tych fundamentów, który może nie każdy, ale większość osób w branży IT powinna mieć. Mówię o tym nie tylko ze względu na to, że mam szkolenie z fundamentów sieci i tworzę czy publikuję materiały z tego obszaru, czy nawet ze względu na moje doświadczenie, ale obserwuję kolegów w branży czy kolegów pracujących na innych stanowiskach. Ja wiem, że z perspektywy programistów to nie zawsze jest takie oczywiste – oprócz programistów, którzy pracują przy aplikacjach opartych albo mających działać na sieci, choć finalnie każda i tak działa na sieci. Z tego powodu te sieci warto znać, bo dzisiaj, gdyby nie sieci to świat leży i kwiczy. Zaraz po wyłączeniu prądu, gdyby wyparowały nam sieci to świat by stanął.

Wracając do specjalizacji, tak – nie wyobrażam sobie dobrego bezpiecznika, który nie zna sieci, poza jakimiś bardzo egzotycznymi scenariuszami. Specjaliści od bezpieczeństwa muszą znać sieci, wiedzieć jak one działają, jakie są protokoły, bo często realizowane są tam ataki i trzeba się też bronić. Goście od DevOps'u – w DevOps mamy tą część Dev, ale mamy też część operacyjną, a w tej operacyjnej jest infrastruktura, to są sieci, bez względu na to, czy one są tradycyjne, czy są powoływane programowo jakimś teraformem itd. Na dole i tak jest sieć.

Jeśli chodzi o specjalistów od Cloud Computingu – sieci w chmurze są inne. Sieci w Azure, AWS, GCP, są różne od siebie, ale też od sieci tradycyjnych – trzeba wiedzieć na czym te różnice polegają, więc warto znać sieci tradycyjne, a przynajmniej mieć ich fundamenty, po to, żeby można było je porównywać. Z drugiej strony, często łączymy się z tej chmury albo ktoś łączy się do nas właśnie za pomocą tradycyjnych sieci.

Najważniejsze jest to, że sieci są cholernie wdzięczną działką, bo jak ktoś nauczył się ich dobrze 20 lat temu, to naprawdę 90% do dzisiaj jest bardzo aktualna i duże prawdopodobieństwo widzę w tym, że za 10 i 15 lat nadal ta wiedza będzie bardzo aktualna.

 

OK, w takim razie, jeżeli tyle osób może być zainteresowanych tym tematem, to jaką książkę polecisz osobom, które chcą lepiej poruszać się właśnie po obszarze sieci komputerowych?

To znowu bardzo zależy od tego kto, w jakiej formie lubi przyswajać wiedzę. Nie wiem, czy na sam początek książka jest idealnym rozwiązaniem jeżeli mówimy stricte o edukacji. Oczywiście są materiały ogólnodostępne na YouTubie, są szkolenia, kursy online. Ja sam nie bez powodu mając możliwość zrobienia różnego rodzaju kursów, na początek wybrałem przygotowanie kursu z fundamentów sieci. Zrobiłem to właśnie dlatego, że widziałem, że jest na to, nie tyle zapotrzebowanie, co realnie przyda się to wielu osobom. I faktycznie to szkolenie kupują zarówno osoby entry, jak i administratorzy, którzy czasami mają CCNA, ale chcą sobie odświeżyć wiedzę. W gronie kursantów mam programistów, DevOpsów, gości od Cloud Computingu czy bezpieczników, z racji tego o czym przed chwilą powiedziałem.

Natomiast jeżeli chodzi o książki – jak już sobie pooglądamy te materiały na YouTube albo przerobimy to moje szkolenie, wtedy poleciłbym oficjalną książkę do CCNA, czyli Official Cert Guide Library – to jest łącznie volume 1, volume 2 – oprócz tego, że ona przygotuje nas w dużej mierze pod egzamin, to powtórzonych jest tam dużo wątków z ogólnego sieciowego podwórka: od protokołów, urządzeń i tego wszystkiego, co jest pomiędzy nimi.

 

No dobrze, to podlinkuję tego PDF-a, który dotyczy tego certyfikatu, a ja, na sam koniec, chciałbym zapytać cię, gdzie możemy cię znaleźć w sieci, jeżeli ktoś chciałby kupić twój kurs, czy dowiedzieć się czegoś więcej – gdzie ma cię szukać?

Dzisiaj zadałbym pytanie, jak zrobić, żeby się w sieci na mnie nie natknąć, bo jest to już chyba większym wyzwaniem (mówię oczywiście o osobach, które w jakiś sposób są zainteresowane) – to tak żartując i żeby pokazać mój brak skromności. Natomiast pewnie najłatwiej mnie znaleźć wpisując moje imię i nazwisko po prostu w Google wtedy pokaże się zarówno moja strona internetowa, jak i po kolei pewnie wszystkie profile w różnych socialach. Natomiast zdecydowanie polecam zajrzeć na mojego YouTube'a, bo publikuję tam materiały zarówno edukacyjne, jak i takie tutoriale, ale również recenzje różnego rodzaju rozwiązań – tak, że jest przekrojowo. Pojawiają się materiały związane z pracą w IT i często materiały przy współpracy z fajnymi producentami z obszaru sieci, ale nie tylko – również storage'u serwerów itd. i mówimy tutaj o takich, największych firmach, bo z nimi współpracuję. Polecam więc kanał YouTube, moje szkolenie i gdyby ktoś miał okazję zobaczyć jak to wygląda, to strona www.zrozumsieci.pl. Tam można sobie wejść, wpisać maila, pobrać lekcje demo właśnie na temat podstaw routingu. Jest to jedna z lekcji ze szkolenia Zrozum Sieci Komputerowe, ale jest tam też więcej informacji na temat samego szkolenia, do którego ja absolutnie nie namawiam, natomiast zachęcam osoby, które myślą o rozpoczęciu kariery w sieciach lub wiedzą, że sieci to jest kawałek ich pracy, jeżeli pracują nawet na innym stanowisku, bo właśnie dla nich to szkolenie zrobiłem – żeby było to też w zwięzłej formie, w krótkich lekcjach, dosłownie 5-7-minutowe lekcje per dane zagadnienie. Tam jest bardzo duże tempo, że jak ktoś chce sobie coś odświeżyć, to tego czasu nie straci. Jak chce się nauczyć, to sobie powtórzy. Łącznie jest chyba 12 modułów. Jest zarówno teoria, jak i moduł z praktyką, labami, po każdym module są testy wiedzy – zrozumsieci.pl i tam darmowa lekcja demo.

Gdyby ktoś chciał trochę więcej od strony prywaty to Instagram, bo staram się tam wrzucać jakieś rzeczy trochę z backstage'a, czasami coś prywatnego, ale też takie rzeczy związane z moimi działaniami zawodowymi. Stricte zawodowo można mnie znaleźć na LinkedIn, czasami wrzucam tam jakieś swoje przemyślenia czy obserwacje. Podsumowując: kanał YouTube, www.zrozumsieci.pl, Instagram i LinkedIn.

Zapraszamy wszystkich zainteresowanych, a ja tobie Marcelu bardzo dziękuję za rozmowę i podzielenie się z nami swoją wiedzą.

To ja dziękuję za zaproszenie, mam nadzieję, że nie zanudziłem, a wręcz zachęciłem do tego, żeby rozpocząć lub po prostu zapoznać się z sieciami.

Tak jest. Myślę, że wyszło bardzo dobrze – dzięki wielkie jeszcze raz i do następnego razu, bo już było wspomniane jeszcze przed nagrywką, że jest pomysł na kolejny odcinek, więc myślę, że się jeszcze zobaczymy.

Dzięki bardzo, pozdrawiam do usłyszenia.

Cześć.

Polecana książka

Słuchaj także na:

Udostępnij ten artykuł:

Polecana książka

Mentoring to efektywna nauka pod okiem doświadczonej osoby, która:

  • przekazuje Ci swoją wiedzę i nadzoruje Twoje postępy w zdobywaniu umiejętności,
  • uczy Cię dobrych praktyk i wyłapuje złe nawyki,
  • wspiera Twój rozwój i zwiększa zaangażowanie w naukę.

Mam coś dla Ciebie!

W każdy piątek rozsyłam motywujący do nauki programowania newsletter!

Dodatkowo od razu otrzymasz ode mnie e-book o wartości 39 zł. To ponad 40 stron konkretów o nauce programowania i pracy w IT.

PS Zazwyczaj wysyłam 1-2 wiadomości na tydzień. Nikomu nie będę udostępniał Twojego adresu e-mail.