Unix I Linux Przewodnik Administratora Systemów

Autor: Praca Zbiorowa

Okładka wydania

Unix I Linux Przewodnik Administratora Systemów


Dodatkowe informacje

  • Autor: Praca Zbiorowa
  • Gatunek: Informatyka
  • Język Oryginału: Angielski
  • Liczba Stron: 1208
  • Rok Wydania: 2018
  • Numer Wydania: I
  • Wymiary: 164x239 mm
  • ISBN: 9788328341753
  • Wydawca: Helion
  • Oprawa: Miękka
  • Miejsce Wydania: Gliwice
  • Ocena:

    6/6


Oceń Publikację:

Książki

Fabuła: 100% - 1 votes
Akcja: 100% - 1 votes
Wątki: 100% - 2 votes
Postacie: 100% - 1 votes
Styl: 100% - 1 votes
Klimat: 100% - 1 votes
Okładka: 100% - 1 votes
Polecam: 100% - 1 votes

Polecam:


Podziel się!

Wybierz opinię:

Krzysztof Krzysztof

Unix Time-Sharing System (pisane również jako UNIX, choć nie jest to skrót – nazwa „UNIX” jest kalamburem określenia Multics, który był wzorem dla Uniksa) – system operacyjny rozwijany od 1969 r. w Bell Labs (UNIX System Laboratories, USL) przez Dennisa Ritchie i Kena Thompsona. W latach 70. i 80. zdobył bardzo dużą popularność, co zaowocowało powstaniem wielu odmian i implementacji. Część z nich, w szczególności GNU/Linux oraz macOS, jest w użyciu do dziś. UNIX jest zarejestrowanym znakiem towarowym The Open Group. Linux – rodzina uniksopodobnych systemów operacyjnych opartych na jądrze Linux. Linux jest jednym z przykładów wolnego i otwartego oprogramowania (FLOSS): jego kod źródłowy może być dowolnie wykorzystywany, modyfikowany i rozpowszechniany. Od kwietnia 2017 roku Android (a tym samym Linux) oficjalnie jest najpopularniejszym systemem operacyjnym na świecie. Pozycji wydawniczych traktujących o administracji systemami Unix i Linux jest multum, jeszcze więcej praktycznych zastosowań oraz przydatnych informacji dotyczących systemu można znaleźć w sieci, m.in. na grupach, forach zrzeszających społeczność zajmującą się eksploatacją oraz rozwojem gałęzi systemów administracyjno-operacyjnych. Jednak niewiele miejsc oraz publikacji usystematyzowało krok po kroku zakres oraz kolejność efektywnego wdrażania systemu przez laików mierzących się z trudnymi początkami oraz stopniowej edukacji, pozwalającej na przyswojenie podstaw. „Unix i Linux Przewodnik Administratora Systemów” - opracowanie zbiorowe, skutecznie wypełnia niszę, zaspokaja podstawowe potrzeby początkującego informatyka a zarazem wraz z kolejnymi wznowieniami dostosowuje się do potrzeb oraz możliwości wciąż rozwijanego systemu. Autorzy do każdej edycji podchodzą indywidualnie, kierując się własnym doświadczeniem zamieszczają najnowsze trendy i wskazują na co czytelnik musi zwrócić uwagę. W publikacji omówiono w przystępny, ciekawy i łatwy do zrozumienia sposób wszystkie zagadnienia związane z tą rodziną systemów. Książka nie ma na celu opisania każdej linijki kodu źródłowego systemu, każdego piksela wyświetlanego przez GUI, takie informacje można znaleźć w dokumentacji technicznej i developerskiej poszczególnych dystrybucji. Wiedza jest kierowana w szczególności do administratorów zajmujących się dużymi podmiotami takimi jak przedsiębiorstwa, banki oraz instytucje rządowe. Niemniej jednak w dzisiejszych czasach każdy z nas przechowuje swoje „życie” na dyskach komputerów bądź w chmurach. Co w momencie gdy bezpowrotnie utracimy te dane. Wystarczy chwila nieuwagi, drobny błąd, żeby wymazać nasze wspomnienia. Dzięki poprawnej obsłudze systemu jesteśmy w stanie przedsięwziąć działania, mające na celu uniknięcie tego typu sytuacji. Jeżeli interesujesz się informatyką, planujesz poznać lub znasz choćby w najmniejszym stopniu tę rodzinę systemów, a chcesz bardziej zgłębić tą dynamicznie rozwijającą się dziedzinę dobrym krokiem będzie sięgnięcie właśnie po tę pozycję.

 

Administrator to informatyk zajmujący się zarządzaniem systemem informatycznym i odpowiadający za jego sprawne działanie. Do typowych zadań administratora należy nadzorowanie pracy powierzonych systemów, zarządzanie kontami i uprawnieniami użytkowników, konfiguracja systemów, instalowanie i aktualizacja oprogramowania, dbanie o bezpieczeństwo systemu i danych w systemach, nadzorowanie, wykrywanie i eliminowanie nieprawidłowości, asystowanie i współpraca z zewnętrznymi specjalistami przy pracach instalacyjnych, konfiguracyjnych i naprawczych, dbanie o porządek (dotyczy w szczególności forów internetowych) itp. Ważnym elementem jest też tworzenie dokumentacji zmian wprowadzanych w systemach mających bezpośredni wpływ na jego funkcjonalność.

 

Zrozumienie działania obszarów utrzymujących całe funkcjonowanie systemów jest często pomijane ze względu na swoją obszerność i trudność w zrozumieniu. Na początek musimy zapoznać się w procesami, które pozwolą nam na użytkowanie. Mając świadomość kolejności wykonywanych czynności przez włączający się system będziemy mogli w przyszłości zdefiniować, co zawiodło podczas rozruchu.

 

Sprawdzając programy, które umożliwiają włączenie się systemu w pełnej okazałości, jesteśmy w stanie naprawić konkretny błąd i umożliwić włączenie. Kolejną ważną rzeczą jest tzw. monitoring systemu, czyli kontrola procesów zarządzających systemem. Będąc administratorem danej jednostki musimy stale kontrolować czy w tle nie działają niepożądane programy, które znacznie mogą spowalniać działanie naszej maszyny.

 

W systemach z rodziny Linux możemy spotkać się z dużą różnorodnością systemów plików. Cały system jest stworzony i ułożony w hierarchicznej kolejności przypominającej drzewo. Korzeniem jest katalog główny systemu, od niego odchodzą gałęzie będące jego podkatalogami. Powtarzając ten proces dla bardziej zagnieżdżonych plików otrzymamy strukturę z korzeniem u góry i koroną na dole. W systemach Linux głównym systemem plików jest ext4, umożliwiający przechowywanie pojedynczych plików mających wielkość nie przekraczającą 16TB. Linux obsługuje ogromną ilość rozszerzeń plików tekstowych, dzięki czemu nie trzeba się martwić, o odczyt konkretnych danych. W systemie występują jeszcze tak zwane dowiązania. Umożliwiają one stworzenie pliku będącego odnośnikiem do pliku oryginalnego, czyli prościej ujmując stworzyć „skrót”.

 

W systemie istnieje kilka możliwości zainstalowania programów. Głównym z nich jest posłużenie się komendą „apt-get install [...]”, gdzie w nawiasy kwadratowe zostaje wpisana nazwa aplikacji, którą chcemy zainstalować. W ten sposób odwołujemy się do bazy zawartej w plikach linuksa z informacjami, skąd podany program ma zostać pobrany. Niestety w niektórych przypadkach może okazać się, że Linux nie znajduje nazwy tego oprogramowania. W tym momencie musimy podać bezpośredni link do pobrania bądź zaopatrzyć się w plik instalacyjny, uzyskując go z strony domowej producenta. Wówczas posługując się odpowiednią komendą, w zależności od posiadanej dystrybucji, będziemy w stanie dokonać instalacji.

 

Pisanie skryptów powłoki, czyli posługiwanie się narzędziem Bash, umożliwia efektywną komunikację z systemem. Autorzy tuż przy opisywaniu posługiwaniem się tym językiem skryptowym opisują również dwa inne języki programowania, a mianowicie Python i Ruby. Wybór tych języków, tłumaczą ich prostotą i użytecznością, a co za tym idzie szerokim wachlarzem możliwości w ich zastosowaniu. Python jest często polecany jako idealny język dla początkujących. Posiadając ogromną bazę narzędzi może być używany w praktycznie każdych warunkach, zaczynając od administracji systemami, poprzez obsługę danych, a kończąc na sztucznej inteligencji i grach. Administrator serwera prawie zawsze będzie udostępniał jego zasoby użytkownikom na nim pracującym.

 

Niezbędna jest jednak specyficzna wiedza również w tym obszarze. Należy zapoznać się z obsługą kont użytkowników, a mianowicie z ich dodawaniem i usuwaniem, udostępnianiem tylko określonych plików, katalogów oraz programów. Poprawne skonfigurowanie odpowiedniego dostępu dla każdego użytkownika jest bardzo ważne, ponieważ ktoś nie chcący może zmienić plik odpowiedzialny za poprawną pracę systemu. System przestanie działać i dojdzie do awarii, której zdiagnozowanie i usunięcie może być znacznie bardziej czasochłonne niż ustawienie konkretnych uprawnień dla wszystkich osób. Kolejnym ważnym aspektem, biorąc pod uwagę, że system będzie podłączony do sieci jest odpowiednie ustawienie portów komunikacyjnych. Mając bezpośredni dostęp do sieci, musimy zdawać sobie sprawę, że jeżeli jesteśmy w stanie skomunikować się z innym serwerem, to inni również widzą i mogą porozumieć się z nami. W ten sposób, będąc wystawionym na wpływ środowiska zewnętrznego w każdej sekundzie system jest narażony na negatywne czynniki z niego płynące. W tej części zostajemy uzmysłowieni z możliwościami ustawienia odpowiednich barier i narzędzi, żeby korzystanie z zasobów Internetu było bardziej wydajne i bezpieczne.

 

Zapora sieciowa jest jeden ze sposobów zabezpieczania sieci i systemów przed intruzami. Termin ten może odnosić się zarówno do dedykowanego sprzętu komputerowego wraz ze specjalnym oprogramowaniem, jak i do samego oprogramowania blokującego niepowołany dostęp do komputera, na którego straży stoi. Pełni rolę połączenia ochrony sprzętowej i programowej sieci wewnętrznej LAN przed dostępem z zewnątrz, tzn. sieci publicznych, Internetu, chroni też przed nieuprawnionym wypływem danych z sieci lokalnej na zewnątrz. Często jest to komputer wyposażony w system operacyjny (np. Linux, BSD) z odpowiednim oprogramowaniem. Do jego podstawowych zadań należy filtrowanie połączeń wchodzących i wychodzących oraz tym samym odmawianie żądań dostępu uznanych za niebezpieczne. Autorzy opisują w podrozdziałach sposoby konfiguracji serwerów zgodnie z różnym jego przeznaczeniem.

 

Najczęstszym zastosowaniem z jakim można się spotkać będzie to serwer hostujący stronę internetową albo dysk sieciowy. Jednakże jest wiele innych zastosowań, które możemy wdrożyć, takie jak własny serwer DNS. Domain Name System (DNS, pol. „system nazw domenowych”) – system serwerów, protokół komunikacyjny oraz usługa obsługująca rozproszoną bazę danych adresów sieciowych. Pozwala na zamianę adresów znanych użytkownikom Internetu na adresy zrozumiałe dla urządzeń tworzących sieć komputerową. Dzięki DNS nazwa mnemoniczna strony jest tłumaczona na odpowiadający jej adres IP.

 

DNS to złożony system komputerowy oraz prawny. Zapewnia z jednej strony rejestrację nazw domen internetowych i ich powiązanie z numerami IP. Z drugiej strony realizuje bieżącą obsługę komputerów odnajdujących adresy IP odpowiadające poszczególnym nazwom. Jest nieodzowny do działania prawie wszystkich usług sieci Internet.

 

Interesującym zastosowaniem serwerów z systemem linuks jest poczta email. Ogrom darmowych portali, które udostępniają skrzynki email za darmo, zniechęca do założenia własnej prywatnej skrzynki. Wiąże się to z pewnymi trudnościami, a przede wszystkim kosztami zakupienia domeny i utrzymania całego serwera.

 

Przestrzeń potrzebną na email możemy wypożyczyć od firm posiadających serwerownie z własnymi magazynami danych albo zakupić jednostkę centralną i utrzymywać ją w domu. W każdym bądź razie główną przeszkodą zaczynają być rosnące koszty za coś co można mieć za darmo. Jaki jest jednak główny powód posiadania własnej skrzynki pocztowej. Bezpieczeństwo wiadomości, które znajdują się na używanym przez nas serwerze pocztowym nie jest zależne od nas. Nie jesteśmy w stanie stwierdzić czy nasz dostawca przypadkiem nie przegląda naszej korespondencji. Posiadając prywatną skrzynkę, mamy pewność, że wiadomości przechowywane są na naszym nośniku i nikt oprócz nas nie ma do nich dostępu.

 

Pamięć masowa odnosi się do przechowywania dużych ilości danych w sposób trwały i możliwy do odczytu. Urządzenia i / lub systemy nazywane „pamięć masowa” obejmują systemy RAID i różne napędy komputerowe, takie jak dyski twarde, magnetyczne napędy taśmowe, magnetyczno-optyczne dyski twarde, dyski optyczne i karty pamięci. Pamięć masowa obejmuje urządzenia z wymiennymi i nieusuwalnymi nośnikami. Nie obejmuje pamięci o dostępie swobodnym (RAM). Istnieją dwie szerokie klasy pamięci masowej: dane lokalne w urządzeniach takich jak smartfony lub komputery oraz serwery korporacyjne i centra danych dla chmury. Biorąc pod uwagę segment mobilny, od telefonów po notebooki, większość dzisiejszych systemów opiera się na technologii NAND Flash. Jeśli chodzi o korporacje i centra danych, pamięć masowa używana jest w postaci kombinacji dysków SSD i HDD.

 

Codziennie systemy informatyczne na całym świecie, gromadzą ogromne ilości danych. Kamery monitoringu, przeglądarki internetowe, systemy inteligentnych domów wyposażone w masę czujników, muszą przechowywać te dane w bezpiecznym miejscu. Brak możliwości zapisania, a po czasie powrócenia do tych informacji byłby czynnikiem wykluczającym działanie jakiejkolwiek instalacji. W celu zapewnienia dostępności już wygenerowanych i zarejestrowanych obiektów stosuje się urządzenia pamięci masowej, czyli w najprostszej postaci są to dyski. Pomimo posiadania i właściwego podłączenia magazynu pamięci należy mieć na uwadze właściwe korzystanie z tych jakże przydatnych urządzeń. Głównym aspektem, który należy rozważyć podczas gromadzenia danych jest awaryjność nośników pamięci. Rodzajów awarii jest mnóstwo, rozpoczynając na możliwości samoistnego wyczyszczenia wrażliwych danych, a kończąc na całkowitym zniszczeniu dysku w przypadku spięcia bądź uszkodzenia mechanicznego. Dobrym i najczęściej zalecanym sposobem jest tworzenie zrzutów obrazu dysku i przechowywanie ich w różnych miejscach. W celach serwerowych, stosowane są tzw. dyski zapasowe. Przypadkowa awaria głównego serwera albo samego dysku, unieruchamia cały system. Właśnie w takich sytuacjach przydaje się urządzenie zapasowe, które na bieżąco aktualizuje i uzupełnia swoje dane o zasoby znajdujące się na pierwszym dysku.

 

Protokół NFS, czyli Network File System został wprowadzony przez firmę Sun Microsystems w 1984 roku i początkowo był stosowany dla klientów pozbawionych dysków twardych. Z upływem czasu świadomość  zdalnego dostępu do plików zaczęła nasuwać pomysły na nowe możliwości, w których można wykorzystać ten system. Obecnie stosowany jest do współdzielenia plików pomiędzy użytkowników, stacje robocze, które mają do nich dostęp. W momencie, gdy połączenie z serwerem, na którym znajdują się dane, zostanie przerwane, po ponownym nawiązaniu połączenia wszystko znajduje się we właściwym miejscu.

 

Samba – darmowy serwer plików oraz drukarek, dostępny praktycznie dla każdego systemu. Dostępna jest na licencji GPL (GNU General Public License). Samba korzysta z implementacji protokołu SMB (Server Message Block). Samba pozwala na tworzenie heterogenicznego (mieszanego) środowiska, w którym mogą działać obok siebie komputery z systemem operacyjnym Unix i Linux oraz Windows i wzajemnie korzystać ze swoich zasobów – plików i drukarek. Głównymi zadaniami samby są: współdzielenie plików i drukarek, serwer logowania dla Sieci Windows, podstawowy kontroler domeny, serwer przeglądania Windows, synchronizacja haseł pomiędzy systemami Linux i Windows, obsługa SSL. Wcześniej opisany protokół NFS umożliwiał jedynie udostępnianie plików i zasobów pomiędzy systemami rodziny Linux i Unix, niestety nie ma możliwości dopuszczenia Windowsa do tych zbiorów. Z rozwiązaniem tego problemu przyszedł Barry Feigenbaum, który stworzył protokół BAF, zwany później SMB. Firma Microsoft po przejęciu w 1996 roku opracowała i ponownie zmieniła nazwę protokołu na CIFS, jednakże częściej a praktycznie wszędzie stosowana jest nazwa SMB. Samba jest jedynie pakietem udostępniającym serwerowe zaplecze dla wymienionego protokołu, który umożliwia swobodne współdzielenie plików pomiędzy Windowsem i Linuxem.

 

Zarządzanie konfiguracją jest jedną z najcięższych funkcji do opanowania dla początkującego administratora. Z angielskiego Control Management realizowane jest przez oprogramowanie wspomagające, które ma zdefiniowane określone reguły. Wśród możliwości oferowanych przez programy CM są tworzenie, usuwanie użytkowników, reorganizacja katalogów i plików czy ustawianie parametrów w systemie. Zarządzanie konfiguracją, znane również pod nazwą zarządzanie zmianą ma na celu śledzenie informacji dotyczących zmian w oprogramowaniu, sprawdzaniu wpływu zmian oraz podejmowaniu decyzji o podjęciu odpowiednich działań, wprowadzających lub blokujących nowe rozwiązania.

 

Wirtualizacja jest to proces symulowania przez oprogramowanie istnienia zasobów logicznych, które wykorzystują ustalone podczas konfiguracji zasoby fizyczne. np. wirtualna maszyna stosuje wirtualizacje w celu symulowania pracy maszyny z danym systemem operacyjnym pozwalając przez to badać zachowanie tej maszyny i jej oprogramowania bez wpływania na realny system operacyjny na którym pracujemy. Wirtualizacja umożliwia efektywniejsze wykorzystanie istniejących zasobów sprzętowych środowiska informatycznego poprzez dowolne (w ramach możliwości sprzętowych czy programowych oraz założeń projektowych) modyfikowanie cech wirtualizowanych zasobów, dostosowując je do wymagań użytkownika.

 

Maszynie wirtualnej udostępniana jest odpowiednia ilość pamięci RAM, wystarczając, lecz jedynie oszacowana ilość pamięci masowej. Istotnym momentem podczas konfigurowania programu przeznaczonego do symulacji jest ustalenie, ile przestrzeni dyskowej jest potrzebne na nowy system. Można ustawić zazwyczaj dwie główne opcje, dynamiczne przydzielanie miejsca bądź statyczne. W przypadku pierwszego wyboru, miejsce dyskowe jest pobierane z przestrzeni należącej do macierzystego systemu, w momencie braku miejsca, zwiększenie następuje automatycznie. Natomiast po przydzieleniu stałej ilości, najprostszym i najmniej inwazyjnym sposobem jest utworzenie nowego dysku wirtualnego i sprzężenie go z już istniejącym. Systemy wirtualne bardzo często wykorzystywane są do testowania nowych rozwiązań programowych i systemowych. Pozytywnym aspektem wirtualizacji jest możliwość zapisywania aktualnych stanów pracy systemu, co umożliwia późniejszy powrót do danego etapu pracy w systemie.

 

System rozproszony to zbiór niezależnych urządzeń technicznych połączonych w jedną, spójną logicznie całość. Zwykle łączonymi urządzeniami są komputery, rzadziej – systemy automatyki. Połączenie najczęściej realizowane jest przez sieć komputerową, jednak można wykorzystać również inne – prostsze – magistrale komunikacyjne. Urządzenia są wyposażone w oprogramowanie umożliwiające współdzielenie zasobów systemowych. Jedną z podstawowych cech systemu rozproszonego jest jego przejrzystość, tj. tworzenie na użytkownikach systemu rozproszonego wrażenie pojedynczego i zintegrowanego systemu. Docker otwarte oprogramowanie służące jako „platforma dla programistów i administratorów do tworzenia, wdrażania i uruchamiania aplikacji rozproszonych”. Docker jest określany jako narzędzie, które pozwala umieścić program oraz jego zależności w lekkim, przenośnym, wirtualnym kontenerze, który można uruchomić na prawie każdym serwerze z systemem Linux.

 

Ciągła integracja jest praktyką stosowana w trakcie rozwoju oprogramowania, polegająca na częstym, regularnym włączaniu (integracji) bieżących zmian w kodzie do głównego repozytorium i każdorazowej weryfikacji zmian, poprzez zbudowanie projektu (jeśli jest taka potrzeba) i wykonanie testów jednostkowych. W praktyce, każdy członek zespołu programistycznego powinien przynajmniej raz dziennie umieścić wykonaną przez siebie pracę w repozytorium. Prawidłowo przeprowadzana ciągła integracja powinna prowadzić do zmniejszenia kosztów i ilości pracy niezbędnej do łączenia prac wykonanych przez różne osoby, wcześniejszego wykrywania błędów.

 

Kolejnym poruszonym problemem jest wciąż rosnąca destrukcyjna działalność tzw. hakerów, czyli osób mających kilka celów, włamać się, ukraść, zniszczyć albo zamiast niszczenia zbudować lukę w systemie, która w przyszłości posłuży im do bezproblemowego dostania się do środka. Bezpieczeństwo każdego systemu jest bardzo ważne, nie tylko wielkich przedsiębiorstw, ale również małych obiektów. Hakerzy codziennie przeczesują sieć szukając systemów, w których brak wykwalifikowanego administratora, który zapomniał, albo nawet nie chciał zabezpieczyć przechowywanych danych.

 

Autorzy oprócz opisu możliwości systemu, skupiają również swoją uwagę na tzw. dobrych praktykach. Szereg postępowań, mający zapewnić niską awaryjność i wysoką skuteczność pracy systemu. Niektóre narzędzia administracyjne mają ogromną ilość zastosowań i możliwości. Dużo osób myśląc, że powinny znać każdy aspekt danego programu będzie próbowało nauczyć się jego działania „od deski do deski”, a później okaże się, że będzie używać jedynie 20 procent z jego funkcji. Wiadomo, to czego się nauczymy nikt nam nie zabierze, ale wiedząc, że w zupełności wystarczy tylko częściowa znajomość narzędzia zaoszczędzimy sporo czasu, który można wykorzystać na naukę innych rzeczy. Właśnie dlatego autorzy podchodzą w inteligentny i rozsądny sposób do każdego zagadnienia, aby pokierować czytelnika, podkreślając co jest niezbędne.

 

Każdy z rozdziałów rozpoczyna się słowem wstępu opisując co zawiera. Ciekawym rozwiązaniem jest również zastosowanie komicznych infografik, zawierających elementy (słowa, sformułowania, oznaczenia) również odpowiadające zawartości danej części. W obrazkach możemy doszukać się konkretnych sformułowań tyczących się elementów opisanych na kolejnych stronach. Zastosowanie tego typu przerywnika pomaga przełamać rutynowe przeczesywanie kolejnych kart. Autorzy pobudzają naszą wyobraźnię, zmuszają nas do zrobienia „pauzy”.

 

Po przeczytaniu rozdziału niektórzy mogą czuć lekki niedosyt, spowodowany chęcią dalszego drążenia poruszonego problemu, autorzy podają nam w tym celu pomocną dłoń. Na zakończenie każdego rozdziału możemy znaleźć poddział „Zalecana literatura”. Jest to krótka notatka o dalszych możliwościach poszerzania wiedzy z danego zakresu. Autorzy podają tutaj publikacje okraszone kilkoma słowami zachęty i ich osobistego stosunku do poszczególnych dzieł. Zawarte uwagi, mogą nakierować czytelnika, w jakiej kolejności przeczytać podane książki. Za każdym razem przytoczone zostają przynajmniej dwie pozycje, co daje nam szeroki wachlarz możliwości, biorąc pod uwagę, że każda z nich jest obszernym objaśnieniem konkretnego tematu.

 

Wchodząc w posiadanie jakiejkolwiek książki rzadko zastanawiamy się kim jest autor/autorzy, czym się zajmuje, jakie ma doświadczenie. Książka została napisana przez pasjonatów, ludzi, do których można
przypisać słowa Konfucjusza „Wybierz pracę, którą kochasz, a nie będziesz musiał pracować nawet przez jeden dzień w swoim życiu.” Trzymając tę książkę w rękach stajemy się częścią ogromnej społeczności
starającej się poprawić jakość dzisiejszych usług informatycznych. Polecam.

 

Komentarze

Kod antyspamowy
Odśwież


Współpracujemy z:

KARTA BIBLIOTECZNA

BIBLIOTECZKA

  • Załóż swoje konto
  • Karta Do Kultury

    Jeżeli zalogujesz się na swoje konto, będziesz mógł bezpłatnie:
    *obserwować pozycje wydawnicze, promocje oraz oferty specjalne
    *dodawać je do ulubionych
    *polecać innym czytelnikom
    *odradzać produkty, po które więcej nie sięgniesz
    *listować pozycje, które posiadasz
    *oznaczać pozycje przeczytane/obejrzane
    Jeżeli nie masz konta, zarejestruj się, zapraszamy do rejestracji!