22959
Book
In basket
Uczenie maszynowe z użyciem Scikit-Learn i TensorFlow / Aurélien Géron ; tłum. Krzysztof Sawka. - Wydanie 2 - aktualizacja do modułu TensorFlow 2. - Gliwice : Helion S.A. , cop. 2020. - 764, [4] s. : rys., wykresy, wzory ;
ISBN: 978-83-283-6002-0
CZĘŚĆ I. PODSTAWY UCZENIA MASZYNOWEGO. 1. Krajobraz uczenia maszynowego. Czym jest uczenie maszynowe? Dlaczego warto korzystać z uczenia maszynowego? Przykładowe zastosowania. Rodzaje systemów uczenia maszynowego. Główne problemy uczenia maszynowego. Testowanie i ocenianie. Ćwiczenia. 2. Nasz pierwszy projekt uczenia maszynowego. Praca z rzeczywistymi danymi. Przeanalizuj całokształt projektu. Zdobądź dane. Odkrywaj i wizualizuj dane, aby zdobywać nowe informacje. Przygotuj dane pod algorytmy uczenia maszynowego. Wybór i uczenie modelu. Wyreguluj swój model. Uruchom, monitoruj i utrzymuj swój system. Teraz Twoja kolej! Ćwiczenia. 3. Klasyfikacja. Zbiór danych MNIST. Uczenie klasyfikatora binarnego. Miary wydajności. Klasyfikacja wieloklasowa. Analiza błędów. Klasyfikacja wieloetykietowa. Klasyfikacja wielowyjściowa. Ćwiczenia. 4. Uczenie modeli. Regresja liniowa. Gradient prosty. Regresja wielomianowa. Krzywe uczenia. Regularyzowane modele liniowe. Regresja logistyczna. Ćwiczenia. 5. Maszyny wektorów nośnych. Liniowa klasyfikacja SVM. Nieliniowa klasyfikacja SVM. Regresja SVM. Mechanizm działania. Ćwiczenia. 6. Drzewa decyzyjne. Uczenie i wizualizowanie drzewa decyzyjnego. Wyliczanie prognoz. Szacowanie prawdopodobieństw przynależności do klas. Algorytm uczący CART. Złożoność obliczeniowa. Wskaźnik Giniego czy entropia? Hiperparametry regularyzacyjne. Regresja. Niestabilność. Ćwiczenia. 7. Uczenie zespołowe i losowe lasy. Klasyfikatory głosujące. Agregacja i wklejanie. Rejony losowe i podprzestrzenie losowe. Losowe lasy. Wzmacnianie. Kontaminacja. Ćwiczenia. 8. Redukcja wymiarowości. Klątwa wymiarowości. Główne strategie redukcji wymiarowości. Analiza PCA. Jądrowa analiza PCA. Algorytm LLE. Inne techniki redukowania wymiarowości. Ćwiczenia. 9. Techniki uczenia nienadzorowanego. Analiza skupień. Mieszaniny gaussowskie. Ćwiczenia. CZĘŚĆ II. SIECI NEURONOWE I UCZENIE GŁĘBOKIE. 10. Wprowadzenie do sztucznych sieci neuronowych i ich implementacji z użyciem interfejsu Keras. Od biologicznych do sztucznych neuronów. Implementowanie perceptronów wielowarstwowych za pomocą interfejsu Keras. Dostrajanie hiperparametrów sieci neuronowej. Ćwiczenia. 11. Uczenie głębokich sieci neuronowych. Problemy zanikających/eksplodujących gradientów. Wielokrotne stosowanie gotowych warstw. Szybsze optymalizatory. Regularyzacja jako sposób zapobiegania przetrenowaniu. Podsumowanie i praktyczne wskazówki. Ćwiczenia. 12. Modele niestandardowe i uczenie za pomocą modułu TensorFlow. Krótkie omówienie modułu TensorFlow. Korzystanie z modułu TensorFlow jak z biblioteki NumPy. Dostosowywanie modeli i algorytmów uczenia. Funkcje i grafy modułu TensorFlow. Ćwiczenia. 13. Wczytywanie i wstępne przetwarzanie danych za pomocą modułu TensorFlow. Interfejs danych. Format TFRecord. Wstępne przetwarzanie cech wejściowych. TF Transform. Projekt TensorFlow Datasets (TFDS). Ćwiczenia. 14. Głębokie widzenie komputerowe za pomocą splotowych sieci neuronowych. Struktura kory wzrokowej. Warstwy splotowe. Warstwa łącząca. Architektury splotowych sieci neuronowych. Implementacja sieci ResNet-34 za pomocą interfejsu Keras. Korzystanie z gotowych modeli w interfejsie Keras. Gotowe modele w uczeniu transferowym. Klasyfikowanie i lokalizowanie. Wykrywanie obiektów. Segmentacja semantyczna. Ćwiczenia. 15. Przetwarzanie sekwencji za pomocą sieci rekurencyjnych i splotowych. Neurony i warstwy rekurencyjne. Uczenie sieci rekurencyjnych. Prognozowanie szeregów czasowych. Obsługa długich sekwencji. Ćwiczenia. 16. Przetwarzanie języka naturalnego za pomocą sieci rekurencyjnych i mechanizmów uwagi. Generowanie tekstów szekspirowskich za pomocą znakowej sieci rekurencyjnej. Analiza sentymentów. Sieć typu koder - dekoder służąca do neuronowego tłumaczenia maszynowego. Mechanizmy uwagi. Współczesne innowacje w modelach językowych. Ćwiczenia. 17. Uczenie reprezentacji za pomocą autokoderów i generatywnych sieci przeciwstawnych. Efektywne reprezentacje danych. Analiza PCA za pomocą niedopełnionego autokodera liniowego. Autokodery stosowe. Autokodery splotowe. Autokodery rekurencyjne. Autokodery odszumiające. Autokodery rzadkie. Autokodery wariacyjne. Generatywne sieci przeciwstawne. Ćwiczenia. 18. Uczenie przez wzmacnianie. Uczenie się optymalizowania nagród. Wyszukiwanie strategii. Wprowadzenie do narzędzia OpenAI Gym. Sieci neuronowe jako strategie. Ocenianie czynności: problem przypisania zasługi. Gradienty strategii. Procesy decyzyjne Markowa. Uczenie metodą różnic czasowych. Q-uczenie. Implementacja modelu Q-uczenia głębokiego. Odmiany Q-uczenia głębokiego. Biblioteka TF-Agents. Przegląd popularnych algorytmów RN. Ćwiczenia. 19. Wielkoskalowe uczenie i wdrażanie modeli TensorFlow. Eksploatacja modelu TensorFlow. Wdrażanie modelu na urządzeniu mobilnym lub wbudowanym. Przyspieszanie obliczeń za pomocą procesorów graficznych. Uczenie modeli za pomocą wielu urządzeń. Ćwiczenia. Dziękuję! A. Rozwiązania ćwiczeń. B. Lista kontrolna projektu uczenia maszynowego. C. Problem dualny w maszynach wektorów nośnych. D. Różniczkowanie automatyczne. E. Inne popularne architektury sieci neuronowych. F. Specjalne struktury danych. G. Grafy TensorFlow.
Availability:
Wypożyczalnia
There are copies available to loan: sygn. 004 (1 egz.)
Notes:
Formatted contents note
CZĘŚĆ I. PODSTAWY UCZENIA MASZYNOWEGO. 1. Krajobraz uczenia maszynowego. Czym jest uczenie maszynowe? Dlaczego warto korzystać z uczenia maszynowego? Przykładowe zastosowania. Rodzaje systemów uczenia maszynowego. Główne problemy uczenia maszynowego. Testowanie i ocenianie. Ćwiczenia. 2. Nasz pierwszy projekt uczenia maszynowego. Praca z rzeczywistymi danymi. Przeanalizuj całokształt projektu. Zdobądź dane. Odkrywaj i wizualizuj dane, aby zdobywać nowe informacje. Przygotuj dane pod algorytmy uczenia maszynowego. Wybór i uczenie modelu. Wyreguluj swój model. Uruchom, monitoruj i utrzymuj swój system. Teraz Twoja kolej! Ćwiczenia. 3. Klasyfikacja. Zbiór danych MNIST. Uczenie klasyfikatora binarnego. Miary wydajności. Klasyfikacja wieloklasowa. Analiza błędów. Klasyfikacja wieloetykietowa. Klasyfikacja wielowyjściowa. Ćwiczenia. 4. Uczenie modeli. Regresja liniowa. Gradient prosty. Regresja wielomianowa. Krzywe uczenia. Regularyzowane modele liniowe. Regresja logistyczna. Ćwiczenia. 5. Maszyny wektorów nośnych. Liniowa klasyfikacja SVM. Nieliniowa klasyfikacja SVM. Regresja SVM. Mechanizm działania. Ćwiczenia. 6. Drzewa decyzyjne. Uczenie i wizualizowanie drzewa decyzyjnego. Wyliczanie prognoz. Szacowanie prawdopodobieństw przynależności do klas. Algorytm uczący CART. Złożoność obliczeniowa. Wskaźnik Giniego czy entropia? Hiperparametry regularyzacyjne. Regresja. Niestabilność. Ćwiczenia. 7. Uczenie zespołowe i losowe lasy. Klasyfikatory głosujące. Agregacja i wklejanie. Rejony losowe i podprzestrzenie losowe. Losowe lasy. Wzmacnianie. Kontaminacja. Ćwiczenia. 8. Redukcja wymiarowości. Klątwa wymiarowości. Główne strategie redukcji wymiarowości. Analiza PCA. Jądrowa analiza PCA. Algorytm LLE. Inne techniki redukowania wymiarowości. Ćwiczenia. 9. Techniki uczenia nienadzorowanego. Analiza skupień. Mieszaniny gaussowskie. Ćwiczenia. CZĘŚĆ II. SIECI NEURONOWE I UCZENIE GŁĘBOKIE. 10. Wprowadzenie do sztucznych sieci neuronowych i ich implementacji z użyciem interfejsu Keras. Od biologicznych do sztucznych neuronów. Implementowanie perceptronów wielowarstwowych za pomocą interfejsu Keras. Dostrajanie hiperparametrów sieci neuronowej. Ćwiczenia. 11. Uczenie głębokich sieci neuronowych. Problemy zanikających/eksplodujących gradientów. Wielokrotne stosowanie gotowych warstw. Szybsze optymalizatory. Regularyzacja jako sposób zapobiegania przetrenowaniu. Podsumowanie i praktyczne wskazówki. Ćwiczenia. 12. Modele niestandardowe i uczenie za pomocą modułu TensorFlow. Krótkie omówienie modułu TensorFlow. Korzystanie z modułu TensorFlow jak z biblioteki NumPy. Dostosowywanie modeli i algorytmów uczenia. Funkcje i grafy modułu TensorFlow. Ćwiczenia. 13. Wczytywanie i wstępne przetwarzanie danych za pomocą modułu TensorFlow. Interfejs danych. Format TFRecord. Wstępne przetwarzanie cech wejściowych. TF Transform. Projekt TensorFlow Datasets (TFDS). Ćwiczenia. 14. Głębokie widzenie komputerowe za pomocą splotowych sieci neuronowych. Struktura kory wzrokowej. Warstwy splotowe. Warstwa łącząca. Architektury splotowych sieci neuronowych. Implementacja sieci ResNet-34 za pomocą interfejsu Keras. Korzystanie z gotowych modeli w interfejsie Keras. Gotowe modele w uczeniu transferowym. Klasyfikowanie i lokalizowanie. Wykrywanie obiektów. Segmentacja semantyczna. Ćwiczenia. 15. Przetwarzanie sekwencji za pomocą sieci rekurencyjnych i splotowych. Neurony i warstwy rekurencyjne. Uczenie sieci rekurencyjnych. Prognozowanie szeregów czasowych. Obsługa długich sekwencji. Ćwiczenia. 16. Przetwarzanie języka naturalnego za pomocą sieci rekurencyjnych i mechanizmów uwagi. Generowanie tekstów szekspirowskich za pomocą znakowej sieci rekurencyjnej. Analiza sentymentów. Sieć typu koder - dekoder służąca do neuronowego tłumaczenia maszynowego. Mechanizmy uwagi. Współczesne innowacje w modelach językowych. Ćwiczenia. 17. Uczenie reprezentacji za pomocą autokoderów i generatywnych sieci przeciwstawnych. Efektywne reprezentacje danych. Analiza PCA za pomocą niedopełnionego autokodera liniowego. Autokodery stosowe. Autokodery splotowe. Autokodery rekurencyjne. Autokodery odszumiające. Autokodery rzadkie. Autokodery wariacyjne. Generatywne sieci przeciwstawne. Ćwiczenia. 18. Uczenie przez wzmacnianie. Uczenie się optymalizowania nagród. Wyszukiwanie strategii. Wprowadzenie do narzędzia OpenAI Gym. Sieci neuronowe jako strategie. Ocenianie czynności: problem przypisania zasługi. Gradienty strategii. Procesy decyzyjne Markowa. Uczenie metodą różnic czasowych. Q-uczenie. Implementacja modelu Q-uczenia głębokiego. Odmiany Q-uczenia głębokiego. Biblioteka TF-Agents. Przegląd popularnych algorytmów RN. Ćwiczenia. 19. Wielkoskalowe uczenie i wdrażanie modeli TensorFlow. Eksploatacja modelu TensorFlow. Wdrażanie modelu na urządzeniu mobilnym lub wbudowanym. Przyspieszanie obliczeń za pomocą procesorów graficznych. Uczenie modeli za pomocą wielu urządzeń. Ćwiczenia. Dziękuję! A. Rozwiązania ćwiczeń. B. Lista kontrolna projektu uczenia maszynowego. C. Problem dualny w maszynach wektorów nośnych. D. Różniczkowanie automatyczne. E. Inne popularne architektury sieci neuronowych. F. Specjalne struktury danych. G. Grafy TensorFlow.
The item has been added to the basket. If you don't know what the basket is for, click here for details.
Do not show it again