Sawka Krzysztof
Sortowanie
Źródło opisu
ebookpoint BIBLIO
(7)
Książki
(2)
Forma i typ
E-booki
(7)
Książki
(2)
Publikacje fachowe
(2)
Dostępność
dostępne
(2)
Placówka
Wypożyczalnia
(2)
Autor
Praca zbiorowa
(159)
Kaczmarczyk Michał (1981- )
(61)
Oleśniewicz Piotr (1968- )
(61)
Radwański Zbigniew (1924-2012)
(57)
Kamińska Aleksandra (1976- )
(54)
Sawka Krzysztof
(-)
Borski Maciej (1975- )
(50)
Denek Kazimierz (1932-2016)
(48)
Kosikowski Cezary (1942- )
(46)
Świątkowski Andrzej M. (1944- )
(46)
Barcz Jan (1953- )
(45)
Evans Virginia
(40)
Czarnecki Kazimierz M. (1933- )
(39)
Huczek Marian (1939-2023)
(39)
Faliszewska Jolanta
(38)
Fleszer Dorota (1971- )
(37)
Łuczkiewicz Grzegorz
(36)
Barta Janusz (1947-2021)
(35)
Lityński Adam (1940- )
(35)
Wróbel Andrzej (1953- )
(35)
Baran Krzysztof Wojciech
(34)
Borkowski Janusz (1934-2012)
(33)
Chodyński Andrzej
(32)
Gurdek Magdalena (1977- )
(32)
Krawiec Grzegorz (1977- )
(32)
Markiewicz Ryszard (1948- )
(31)
Garlicki Leszek (1946- )
(30)
Marek Andrzej (1940-2012)
(30)
Wierzbowski Marek (1946- )
(30)
Adamiak Barbara (1949- )
(29)
Nowak Edward (1951- )
(29)
Rozmus Dariusz (1961- )
(29)
Niewiadomski Zygmunt (1950- )
(28)
Pawlak Mirosław
(28)
Penc Józef (1939-2017)
(28)
Rogacka-Łukasik Anna (1980- )
(28)
Śliwerski Bogusław (1954- )
(28)
Lewicka Maria
(27)
Radzicki Józef
(27)
Skrzydło Wiesław (1929-2021)
(27)
Wojtaszczyk Konstanty Adam
(27)
Bauman Zygmunt (1925-2017)
(26)
Bieniek Gerard
(26)
Chmaj Marek (1969- )
(26)
Izdebski Hubert (1947- )
(26)
Sadowska-Snarska Cecylia
(26)
Smolarek Małgorzata (1974- )
(26)
Tokarczyk Roman Andrzej (1942- )
(26)
Brodecki Zdzisław
(25)
Florek Ludwik (1946- )
(25)
Hauser Roman (1949- )
(25)
Kozioł Leszek
(25)
Wentkowska Aleksandra
(25)
Grabiec Olimpia (1975- )
(24)
Kołakowski Leszek (1927-2009)
(24)
Szeligiewicz-Urban Danuta (1959- )
(24)
Łaszczyca Grzegorz (1970- )
(24)
Chmielnicki Paweł (1972- )
(23)
Dooley Jenny
(23)
Głuchowski Jan (1940- )
(23)
Hołyst Brunon (1930- )
(23)
Leoński Zbigniew (1929-2006)
(23)
Obara Małgorzata
(23)
Shakespeare William
(23)
Kotler Philip (1931- )
(22)
Kotowski Wojciech (1950- )
(22)
Latham-Koenig Christina
(22)
Ochendowski Eugeniusz (1925-2015)
(22)
Oxenden Clive
(22)
Skowrońska-Bocian Elżbieta (1948- )
(22)
Szczepański Marek S
(22)
Winiarska Kazimiera (1948- )
(22)
Banaszak Bogusław (1955-2018)
(21)
Bielenica Krystyna
(21)
Borkowska Stanisława (1939- )
(21)
Brzeziński Bogumił (1948- )
(21)
Bura Maria
(21)
Dolnicki Bogdan (1956- )
(21)
Kwil Małgorzata
(21)
Majewski Kamil
(21)
Misiorowska Ewa
(21)
Nowicki Marek Antoni
(21)
Petkowicz Helena
(21)
Szewc Andrzej
(21)
Słomczyński Maciej
(21)
Boć Jan (1939-2017)
(20)
Cieślak Zbigniew (1954- )
(20)
Kalisz Anna
(20)
Konieczna Anna
(20)
Matan Andrzej
(20)
Mruk Henryk (1948- )
(20)
Pocztowski Aleksy (1956- )
(20)
Szpor Grażyna
(20)
Tarno Jan Paweł (1951- )
(20)
Łazowski Adam
(20)
Dobrowolska Hanna
(19)
Ehrlich Andrzej
(19)
Gepert Bożena
(19)
Kisielnicki Jerzy (1939- )
(19)
Mik Cezary (1964- )
(19)
Stowarzyszenie Bibliotekarzy Polskich
(19)
Rok wydania
2020 - 2024
(9)
Kraj wydania
Polska
(9)
Język
polski
(9)
Temat
Python (język programowania)
(2)
Uczenie się maszyn
(2)
Deep learning
(1)
Sieci neuronowe
(1)
Gatunek
Podręcznik
(2)
Dziedzina i ujęcie
Informatyka i technologie informacyjne
(2)
9 wyników Filtruj
Książka
W koszyku
Uczenie maszynowe z użyciem Scikit-Learn i TensorFlow / Aurélien Géron ; tłum. Krzysztof Sawka. - Wydanie 2 - aktualizacja do modułu TensorFlow 2. - Gliwice : Helion S.A. , cop. 2020. - 764, [4] s. : rys., wykresy, wzory ;
CZĘŚĆ I. PODSTAWY UCZENIA MASZYNOWEGO. 1. Krajobraz uczenia maszynowego. Czym jest uczenie maszynowe? Dlaczego warto korzystać z uczenia maszynowego? Przykładowe zastosowania. Rodzaje systemów uczenia maszynowego. Główne problemy uczenia maszynowego. Testowanie i ocenianie. Ćwiczenia. 2. Nasz pierwszy projekt uczenia maszynowego. Praca z rzeczywistymi danymi. Przeanalizuj całokształt projektu. Zdobądź dane. Odkrywaj i wizualizuj dane, aby zdobywać nowe informacje. Przygotuj dane pod algorytmy uczenia maszynowego. Wybór i uczenie modelu. Wyreguluj swój model. Uruchom, monitoruj i utrzymuj swój system. Teraz Twoja kolej! Ćwiczenia. 3. Klasyfikacja. Zbiór danych MNIST. Uczenie klasyfikatora binarnego. Miary wydajności. Klasyfikacja wieloklasowa. Analiza błędów. Klasyfikacja wieloetykietowa. Klasyfikacja wielowyjściowa. Ćwiczenia. 4. Uczenie modeli. Regresja liniowa. Gradient prosty. Regresja wielomianowa. Krzywe uczenia. Regularyzowane modele liniowe. Regresja logistyczna. Ćwiczenia. 5. Maszyny wektorów nośnych. Liniowa klasyfikacja SVM. Nieliniowa klasyfikacja SVM. Regresja SVM. Mechanizm działania. Ćwiczenia. 6. Drzewa decyzyjne. Uczenie i wizualizowanie drzewa decyzyjnego. Wyliczanie prognoz. Szacowanie prawdopodobieństw przynależności do klas. Algorytm uczący CART. Złożoność obliczeniowa. Wskaźnik Giniego czy entropia? Hiperparametry regularyzacyjne. Regresja. Niestabilność. Ćwiczenia. 7. Uczenie zespołowe i losowe lasy. Klasyfikatory głosujące. Agregacja i wklejanie. Rejony losowe i podprzestrzenie losowe. Losowe lasy. Wzmacnianie. Kontaminacja. Ćwiczenia. 8. Redukcja wymiarowości. Klątwa wymiarowości. Główne strategie redukcji wymiarowości. Analiza PCA. Jądrowa analiza PCA. Algorytm LLE. Inne techniki redukowania wymiarowości. Ćwiczenia. 9. Techniki uczenia nienadzorowanego. Analiza skupień. Mieszaniny gaussowskie. Ćwiczenia. CZĘŚĆ II. SIECI NEURONOWE I UCZENIE GŁĘBOKIE. 10. Wprowadzenie do sztucznych sieci neuronowych i ich implementacji z użyciem interfejsu Keras. Od biologicznych do sztucznych neuronów. Implementowanie perceptronów wielowarstwowych za pomocą interfejsu Keras. Dostrajanie hiperparametrów sieci neuronowej. Ćwiczenia. 11. Uczenie głębokich sieci neuronowych. Problemy zanikających/eksplodujących gradientów. Wielokrotne stosowanie gotowych warstw. Szybsze optymalizatory. Regularyzacja jako sposób zapobiegania przetrenowaniu. Podsumowanie i praktyczne wskazówki. Ćwiczenia. 12. Modele niestandardowe i uczenie za pomocą modułu TensorFlow. Krótkie omówienie modułu TensorFlow. Korzystanie z modułu TensorFlow jak z biblioteki NumPy. Dostosowywanie modeli i algorytmów uczenia. Funkcje i grafy modułu TensorFlow. Ćwiczenia. 13. Wczytywanie i wstępne przetwarzanie danych za pomocą modułu TensorFlow. Interfejs danych. Format TFRecord. Wstępne przetwarzanie cech wejściowych. TF Transform. Projekt TensorFlow Datasets (TFDS). Ćwiczenia. 14. Głębokie widzenie komputerowe za pomocą splotowych sieci neuronowych. Struktura kory wzrokowej. Warstwy splotowe. Warstwa łącząca. Architektury splotowych sieci neuronowych. Implementacja sieci ResNet-34 za pomocą interfejsu Keras. Korzystanie z gotowych modeli w interfejsie Keras. Gotowe modele w uczeniu transferowym. Klasyfikowanie i lokalizowanie. Wykrywanie obiektów. Segmentacja semantyczna. Ćwiczenia. 15. Przetwarzanie sekwencji za pomocą sieci rekurencyjnych i splotowych. Neurony i warstwy rekurencyjne. Uczenie sieci rekurencyjnych. Prognozowanie szeregów czasowych. Obsługa długich sekwencji. Ćwiczenia. 16. Przetwarzanie języka naturalnego za pomocą sieci rekurencyjnych i mechanizmów uwagi. Generowanie tekstów szekspirowskich za pomocą znakowej sieci rekurencyjnej. Analiza sentymentów. Sieć typu koder - dekoder służąca do neuronowego tłumaczenia maszynowego. Mechanizmy uwagi. Współczesne innowacje w modelach językowych. Ćwiczenia. 17. Uczenie reprezentacji za pomocą autokoderów i generatywnych sieci przeciwstawnych. Efektywne reprezentacje danych. Analiza PCA za pomocą niedopełnionego autokodera liniowego. Autokodery stosowe. Autokodery splotowe. Autokodery rekurencyjne. Autokodery odszumiające. Autokodery rzadkie. Autokodery wariacyjne. Generatywne sieci przeciwstawne. Ćwiczenia. 18. Uczenie przez wzmacnianie. Uczenie się optymalizowania nagród. Wyszukiwanie strategii. Wprowadzenie do narzędzia OpenAI Gym. Sieci neuronowe jako strategie. Ocenianie czynności: problem przypisania zasługi. Gradienty strategii. Procesy decyzyjne Markowa. Uczenie metodą różnic czasowych. Q-uczenie. Implementacja modelu Q-uczenia głębokiego. Odmiany Q-uczenia głębokiego. Biblioteka TF-Agents. Przegląd popularnych algorytmów RN. Ćwiczenia. 19. Wielkoskalowe uczenie i wdrażanie modeli TensorFlow. Eksploatacja modelu TensorFlow. Wdrażanie modelu na urządzeniu mobilnym lub wbudowanym. Przyspieszanie obliczeń za pomocą procesorów graficznych. Uczenie modeli za pomocą wielu urządzeń. Ćwiczenia. Dziękuję! A. Rozwiązania ćwiczeń. B. Lista kontrolna projektu uczenia maszynowego. C. Problem dualny w maszynach wektorów nośnych. D. Różniczkowanie automatyczne. E. Inne popularne architektury sieci neuronowych. F. Specjalne struktury danych. G. Grafy TensorFlow.
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 004 (2 egz.)
Brak okładki
Książka
W koszyku
Zawiera: R. 1 Umożliwianie komputerom uczenia się z danych: Tworzenie inteligentnych maszyn służących do przekształcania danych w wiedzę; Trzy różne rodzaje uczenia maszynowego; Wprowadzenie do podstawowej terminologii i notacji; Strategia tworzenia systemów uczenia maszynowego; Wykorzystywanie środowiska Python do uczenia maszynowego; Podsumowanie. R. 2 Trenowanie prostych algorytmów uczenia maszynowego w celach klasyfikacji: Sztuczne neurony - rys historyczny początków uczenia maszynowego; Implementacja algorytmu uczenia perceptronu w Pythonie; Adaptacyjne neurony liniowe i zbieżność uczenia; Podsumowanie. R. 3 Stosowanie klasyfikatorów uczenia maszynowego za pomocą biblioteki scikit-learn: Wybór algorytmu klasyfikującego; Pierwsze kroki z biblioteką scikit-learn - uczenie perceptronu; Modelowanie prawdopodobieństwa przynależności do klasy za pomocą regresji logistycznej; Wyznaczanie maksymalnego marginesu za pomocą maszyn wektorów nośnych; Rozwiązywanie nieliniowych problemów za pomocą jądra SVM; Uczenie drzew decyzyjnych; Algorytm k-najbliższych sąsiadów - model leniwego uczenia; Podsumowanie. R. 4 Tworzenie dobrych zestawów danych uczących - wstępne przetwarzanie danych: Kwestia brakujących danych; Przetwarzanie danych kategorialnych; Rozdzielanie zestawu danych na oddzielne podzbiory uczący i testowy; Skalowanie cech; Dobór odpowiednich cech; Ocenianie istotności cech za pomocą algorytmu losowego lasu; Podsumowanie. R. 5 Kompresja danych poprzez redukcję wymiarowości: Nienadzorowana redukcja wymiarowości za pomocą analizy głównych składowych; Nadzorowana kompresja danych za pomocą liniowej analizy dyskryminacyjnej; Jądrowa analiza głównych składowych jako metoda odwzorowywania nierozdzielnych liniowo klas; Podsumowanie. R. 6 Najlepsze metody oceny modelu i strojenie parametryczne: Usprawnianie cyklu pracy za pomocą kolejkowania; Stosowanie k-krotnego sprawdzianu krzyżowego w ocenie skuteczności modelu; Sprawdzanie algorytmów za pomocą krzywych uczenia i krzywych walidacji; Dostrajanie modeli uczenia maszynowego za pomocą metody przeszukiwania siatki; Przegląd wskaźników oceny skuteczności; Podsumowanie. R. 7 Łączenie różnych modeli w celu uczenia zespołowego: Uczenie zespołów; Łączenie klasyfikatorów za pomocą algorytmu głosowania większościowego; Agregacja - tworzenie zespołu klasyfikatorów za pomocą próbek początkowych; Usprawnianie słabych klasyfikatorów za pomocą wzmocnienia adaptacyjnego; Podsumowanie. R. 8 Wykorzystywanie uczenia maszynowego w analizie sentymentów: Przygotowywanie zestawu danych IMDb movie review do przetwarzania tekstu; Wprowadzenie do modelu worka słów; Uczenie modelu regresji logistycznej w celu klasyfikowania tekstu; Praca z większą ilością danych - algorytmy sieciowe i uczenie pozardzeniowe; Modelowanie tematyczne za pomocą alokacji ukrytej zmiennej Dirichleta; Podsumowanie. R. 9 Wdrażanie modelu uczenia maszynowego do aplikacji sieciowej: Serializacja wyuczonych estymatorów biblioteki scikit-learn; Konfigurowanie bazy danych SQLite; Tworzenie aplikacji sieciowej za pomocą środowiska Flask; Przekształcanie klasyfikatora recenzji w aplikację sieciową; Umieszczanie aplikacji sieciowej na publicznym serwerze; Podsumowanie. R. 10 Przewidywanie ciągłych zmiennych docelowych za pomocą analizy regresywnej: Wprowadzenie do regresji liniowej; Zestaw danych Housing; Implementacja modelu regresji liniowej wykorzystującego zwykłą metodę najmniejszych kwadratów; Uczenie odpornego modelu regresywnego za pomocą algorytmu RANSAC; Ocenianie skuteczności modeli regresji liniowej; Stosowanie regularyzowanych metod regresji; Przekształcanie modelu regresji liniowej w krzywą - regresja wielomianowa; Analiza nieliniowych relacji za pomocą algorytmu losowego lasu; Podsumowanie. R. 11 Praca z nieoznakowanymi danymi - analiza skupień: Grupowanie obiektów na podstawie podobieństwa przy użyciu algorytmu centroidów; Organizowanie skupień do postaci drzewa skupień; Wyznaczanie rejonów o dużej gęstości za pomocą algorytmu DBSCAN; Podsumowanie. R. 12 Implementowanie wielowarstwowej sieci neuronowej od podstaw: Modelowanie złożonych funkcji przy użyciu sztucznych sieci neuronowych; Klasyfikowanie pisma odręcznego; Trenowanie sztucznej sieci neuronowej; Zbieżność w sieciach neuronowych; Jeszcze słowo o implementacji sieci neuronowej; Podsumowanie. R. 13 Równoległe przetwarzanie sieci neuronowych za pomocą biblioteki TensorFlow: Biblioteka TensorFlow a skuteczność uczenia; Pierwsze kroki z biblioteką TensorFlow; Tworzenie potoków wejściowych za pomocą tf.data, czyli interfejsu danych TensorFlow; Tworzenie modelu sieci neuronowej za pomocą modułu TensorFlow; Dobór funkcji aktywacji dla wielowarstwowych sieci neuronowych; Podsumowanie. R. 14 Czas na szczegóły - mechanizm działania biblioteki TensorFlow: Cechy kluczowe TensorFlow; Grafy obliczeniowe TensorFlow: migracja do wersji TensorFlow 2; Obiekty Variable służące do przechowywania i aktualizowania parametrów modelu; Obliczanie gradientów za pomocą różniczkowania automatycznego i klasy GradientTape; Upraszczanie implementacji popularnych struktur za pomocą interfejsu Keras; Estymatory TensorFlow; Podsumowanie. R. 15 Klasyfikowanie obrazów za pomocą głębokich splotowych sieci neuronowych: Podstawowe elementy splotowej sieci neuronowej; Implementowanie sieci CNN; Implementacja głębokiej sieci splotowej za pomocą biblioteki TensorFlow; Klasyfikowanie płci na podstawie zdjęć twarzy za pomocą sieci splotowej; Podsumowanie. R. 16 Modelowanie danych sekwencyjnych za pomocą rekurencyjnych sieci neuronowych: Wprowadzenie do danych sekwencyjnych; Sieci rekurencyjne służące do modelowania sekwencji; Implementowanie wielowarstwowej sieci rekurencyjnej przy użyciu biblioteki TensorFlow do modelowania sekwencji; Przetwarzanie języka za pomocą modelu transformatora; Podsumowanie. R. 17. Generatywne sieci przeciwstawne w zadaniach syntetyzowania nowych danych: Wprowadzenie do generatywnych sieci przeciwstawnych; Implementowanie sieci GAN od podstaw; Poprawianie jakości syntetyzowanych obrazów za pomocą sieci GAN: splotowej i Wassersteina; Inne zastosowania modeli GAN; Podsumowanie. R. 18 Uczenie przez wzmacnianie jako mechanizm podejmowania decyzji w skomplikowanych środowiskach: Wprowadzenie: uczenie z doświadczenia; Podstawy teoretyczne uczenia przez wzmacnianie; Algorytmy uczenia przez wzmacnianie; Implementacja naszego pierwszego algorytmu uczenia przez wzmacnianie; Podsumowanie rozdziału i książki.
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 004 (2 egz.)
E-book
W koszyku
Twórcy aplikacji często zapominają o kodzie systemowym, a to dzięki niemu funkcjonują system operacyjny, sterowniki, system plików czy zarządzanie pamięcią. Żadna aplikacja nie będzie działać bez poprawnego kodu systemowego. Język Rust jest dla programistów systemowych wyjątkowym narzędziem, rozwiązującym wiele znanych od dziesięcioleci problemów. Pozwala uniknąć mnóstwa powszechnie popełnianych błędów i tworzyć należytej jakości kod systemowy. Dzięki tej książce zaczniesz kodować w języku Rust. Zrozumiesz też istotę programowania systemowego. Dowiesz się, w jaki sposób zapewnić bezpieczeństwo pamięci i wątków, a także jak sprawić, aby program był wykonywany szybko i bez błędów. Nauczysz się bezpiecznego stosowania operacji współbieżnych i poznasz zasady obsługi błędów. Przekonasz się, w jaki sposób Rust umożliwia kontrolę nad zużyciem pamięci i procesora, dodatkowo otrzymasz mnóstwo wskazówek ułatwiających tworzenie wydajnego i bezpiecznego kodu. Przewodnik jest przeznaczony głównie dla programistów systemowych, na lekturze jednak skorzystają również twórcy aplikacji, którzy dowiedzą się, jak mogą pisać lepszy, efektywniejszy i łatwiejszy w utrzymaniu kod. W książce między innymi: solidne wprowadzenie do języka Rust podstawowe typy danych, a także pojęcia związane z własnością i pożyczaniem obsługa błędów, paczki i moduły zestawy metod i typy generyczne domknięcia, iteratory i programowanie asynchroniczne zaawansowane mechanizmy języka Rust Rust: zadbasz o najwyższą jakość oprogramowania systemowego!
Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu dostępu, który można odebrać w bibliotece.
E-book
W koszyku
Metody statystyczne są kluczowym narzędziem w data science, mimo to niewielu analityków danych zdobyło wykształcenie w ich zakresie. Może im to utrudniać uzyskiwanie dobrych efektów. Zrozumienie praktycznych zasad statystyki okazuje się ważne również dla programistów R i Pythona, którzy tworzą rozwiązania dla data science. Kursy podstaw statystyki rzadko jednak uwzględniają tę perspektywę, a większość podręczników do statystyki w ogóle nie zajmuje się narzędziami wywodzącymi się z informatyki. To drugie wydanie popularnego podręcznika statystyki przeznaczonego dla analityków danych. Uzupełniono je o obszerne przykłady w Pythonie oraz wyjaśnienie, jak stosować poszczególne metody statystyczne w problemach data science, a także jak ich nie używać. Skoncentrowano się też na tych zagadnieniach statystyki, które odgrywają istotną rolę w data science. Wyjaśniono, które koncepcje są ważne i przydatne z tej perspektywy, a które mniej istotne i dlaczego. Co ważne, poszczególne koncepcje i zagadnienia praktyczne przedstawiono w sposób przyswajalny i zrozumiały również dla osób nienawykłych do posługiwania się statystyką na co dzień. W książce między innymi: analiza eksploracyjna we wstępnym badaniu danych próby losowe a jakość dużych zbiorów danych podstawy planowania eksperymentów regresja w szacowaniu wyników i wykrywaniu anomalii statystyczne uczenie maszynowe uczenie nienadzorowane a znaczenie danych niesklasyfikowanych Statystyka: klasyczne narzędzia w najnowszych technologiach!
Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu dostępu, który można odebrać w bibliotece.
E-book
W koszyku
Jeszcze kilka lat temu koncepcja ewoluowania architektury była uznawana za zbyt odważną. Uważano, że architektura powinna pozostawać elementem niezmiennym w czasie. Jednak rzeczywistość udowadnia, że systemy muszą ewoluować, aby spełniać wymogi użytkowników i odzwierciedlać zmiany w dynamicznym środowisku tworzenia oprogramowania. Innymi słowy, konieczne się staje budowanie architektur ewolucyjnych. Dzięki tej książce dowiesz się, w jaki sposób uczynić architekturę oprogramowania wystarczająco plastyczną, aby mogła odzwierciedlać zachodzące zmiany biznesowe i technologiczne. W nowym wydaniu rozbudowano pojęcia zmiany kierowanej i przyrostowej, a także przedstawiono najnowsze techniki dotyczące funkcji dopasowania, automatycznego zarządzania architekturą i danych ewolucyjnych. Zaprezentowano praktyki inżynieryjne umożliwiające ewoluowanie systemów oprogramowania, jak również podejścia strukturalne, w tym zasady projektowe, które ułatwiają zarządzanie tą ewolucją. Opisano ponadto, w jaki sposób zasady i praktyki architektury ewolucyjnej wiążą się z różnymi elementami procesu tworzenia oprogramowania. Naucz się postrzegać architekturę systemową jako plastyczny wyzwalacz. Sam Newman, architekt, autor książki Budowanie mikrousług Najciekawsze zagadnienia: mechanika architektury ewolucyjnej zarządzanie projektami oprogramowania i ich ewolucją style architektoniczne i zasady projektowania sprzęganie i wieloużywalność łączenie praktyk inżynieryjnych z kwestiami strukturalnymi Poznaj techniki umożliwiające tworzenie architektur oprogramowania na tyle zwinnych, aby dotrzymywały kroku ciągłym zmianom. Mark Richards, developertoarchitect.com
Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu dostępu, który można odebrać w bibliotece.
E-book
W koszyku
Język R jest potężnym narzędziem używanym w statystyce, przetwarzaniu grafiki i programowaniu statystycznym; stanowi konkurencję dla komercyjnych systemów do obliczeń tego rodzaju. Zawiera wszystkie narzędzia, których potrzebują statystycy. Równocześnie jest to specyficzny język, przez co jego użytkowanie może sprawiać problemy. Zarówno proste, jak i złożone zadania są łatwe do wykonania, jeśli tylko wiadomo, w jaki sposób je zrobić. Jeżeli jednak trzeba stopniowo dochodzić do właściwego rozwiązania, może to kosztować sporo cierpliwości i zniechęcać. Oto zbiór 275 receptur instruktażowych, z których każda pomaga w rozwiązaniu konkretnego problemu. Wszystkie zostały starannie przetestowane i wielokrotnie dowodziły swojej przydatności. Każda z omawianych receptur została poprzedzona krótkim wprowadzeniem i omówieniem zastosowanych mechanizmów działania. Nie jest to klasyczny podręcznik programowania, jednak z pewnością przyśpieszy naukę praktycznego wykorzystania możliwości R. Jeśli masz już pewne doświadczenie z tym językiem, odświeżysz swoją wiedzę i uzyskasz szerszą perspektywę. Wśród receptur znajdziesz obejmujące szeroki zakres zadania - od podstawowych operacji na danych wejściowych i wyjściowych, poprzez statystykę ogólną, aż po grafikę i regresję liniową. Dowiesz się również, jak wykorzystać język R do wizualizacji danych za pomocą ciekawych wykresów graficznych. W tej książce między innymi: przygotowywanie danych wejściowych i upraszczanie danych wyjściowych macierze, listy, wektory czynnikowe, ramki danych testy statystyczne, przedziały ufności, prawdopodobieństwa modele statystyczne z wykorzystaniem regresji liniowej i analizy wariancji stosowanie zaawansowanych technik statystycznych R: błyskawicznie osiągniesz znakomite wyniki!
Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu dostępu, który można odebrać w bibliotece.
E-book
W koszyku
Analiza danych sprawia, że dzięki ich dużym i mniejszym kolekcjom uzyskujemy wartościową wiedzę, która pozwala na podejmowanie najlepszych decyzji. Dzieje się to poprzez odkrywanie wzorców lub trendów. Obecnie Python udostępnia przeznaczone specjalnie do tego celu narzędzia i biblioteki. Możemy więc łatwo korzystać z wyrafinowanych technik wydobywania wiedzy z danych. Aby jednak osiągnąć zamierzone efekty, trzeba dobrze poznać zarówno metodologię analizy danych, jak i zasady pracy ze służącymi do tego narzędziami. Dzięki tej książce zdobędziesz wszystkie potrzebne informacje i umiejętności, aby skutecznie używać Pythona do analizy danych. Omówiono tu niezbędne podstawy statystyki i zasady analizy danych. Wyczerpująco przedstawiono zaawansowane zagadnienia dotyczące przygotowania, przetwarzania i modelowania danych, a także ich wizualizacji. W zrozumiały sposób wyjaśniono takie procesy jak inteligentne przetwarzanie i analizowanie danych za pomocą algorytmów uczenia maszynowego: regresji, klasyfikacji, analizy głównych składowych czy analizy skupień. Nie zabrakło praktycznych przykładów przetwarzania języka naturalnego i analizy obrazów. Ciekawym zagadnieniem jest również wykonywanie obliczeń równoległych za pomocą biblioteki Dask. W książce między innymi: podstawy analizy danych i korzystanie z bibliotek NumPy i pandas praca z danymi w różnych formatach interaktywna wizualizacja z bibliotekami Matplotlib, seaborn i Bokeh inżynieria cech, analiza szeregów czasowych i przetwarzanie sygnałów zaawansowana analiza danych tekstowych i obrazów Python: wydobywaj z danych wiedzę o wielkiej wartości!
Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu dostępu, który można odebrać w bibliotece.
E-book
W koszyku
Mało kto się zastanawia, jak działa komputer. Jeśli ktoś chce pisać aplikacje, najczęściej wybiera sobie język programowania i koduje, jednak bez zagłębiania się w niuanse pojedynczych bitów pamięci. Tymczasem tajemniczy świat komputerów warto poznać nieco lepiej. Zrozumienie zasad działania procesora ułatwia pisanie wysoce efektywnego kodu. A nawet zwykły użytkownik powinien rozumieć różnicę między pamięcią operacyjną a masową, znać podstawy działania sieci i internetu czy też mieć choćby pobieżną wiedzę z zakresu grafiki komputerowej. To drugie, gruntownie przejrzane i starannie uzupełnione wydanie fascynującej opowieści o tajemnym życiu toczącym się wewnątrz komputerów i innych inteligentnych urządzeń. Pozwala zdobyć wiedzę o rzeczywistych mechanizmach działania komputerów osobistych, multimediów cyfrowych i internetu. Opowiada też o historii poszczególnych wynalazków i przystępnie wyjaśnia wiele pojęć, które warto przyswoić. W tym wydaniu szczególnie pieczołowicie opisano wewnętrzny świat procesorów, decydujących o działaniu komputerów i innych urządzeń. Co najważniejsze: lektura nie wymaga wiedzy technicznej, a opisy i wyjaśnienia są zrozumiałe i angażujące. W książce między innymi: różne rodzaje kodów system binarny i szesnastkowy, ASCII i Unicode bramki logiczne, pamięć i magistrala procesor: serce i mózg komputera system operacyjny a pisanie kodu Chcesz zrozumieć, jak działa komputer? Kod jest źródłem!
Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu dostępu, który można odebrać w bibliotece.
E-book
W koszyku
Analiza danych albo nauka o danych jest interdyscyplinarną dziedziną, dzięki której hipotezy i dane przekształca się w zrozumiałe przewidywania. Predykcyjna analiza danych przynosi wymierne korzyści w wielu dziedzinach, od polityki począwszy, a na udzielaniu kredytów skończywszy. Osobą odpowiedzialną za tę magię jest analityk danych - człowiek, który zbiera i przygotowuje dane, wybiera technikę modelowania, pisze kod, weryfikuje wyniki swojej pracy, wreszcie komunikuje je interesariuszom. Jak widać, profesja analityka danych jest wyjątkowo atrakcyjna i wyjątkowo wymagająca. Aby określić umiejętności praktyczne wymagane w zawodzie analityka danych, najlepiej prześledzić realizacje konkretnych projektów z wykorzystaniem rzeczywistych danych. Ta książka jest samouczkiem prezentującym praktyczne aspekty dziesiątek technik, które wykorzystują profesjonalni analitycy danych. Główny nacisk autorzy położyli na zadania: ich zaplanowanie, przygotowanie, realizację i prezentację wyników. Dzięki praktycznemu podejściu z tej pozycji skorzystają zarówno analitycy biznesowi, jak i badacze danych. Pokazano tu, w jakich przypadkach i w jaki sposób należy stosować techniki statystyczne oraz metody uczenia maszynowego. W każdym rozdziale omówiono nowe narzędzia w kontekście rzeczywistych, praktycznych projektów. W rezultacie powstał potężny zbiór przydatnych ćwiczeń napisanych w języku R, opatrzonych wartościowymi wskazówkami, komentarzami i podpowiedziami. W książce między innymi: zasady zarządzania procesem analizy danych zadania analityka danych przekształcanie danych w celu przygotowania ich do analizy techniki statystyczne i metody uczenia maszynowego w języku R zaawansowane metody modelowania tajniki skutecznego prezentowania wyników analiz R: jesteś gotów na właściwe wyniki analizy danych?
Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu dostępu, który można odebrać w bibliotece.
Pozycja została dodana do koszyka. Jeśli nie wiesz, do czego służy koszyk, kliknij tutaj, aby poznać szczegóły.
Nie pokazuj tego więcej