23488
Availability:
Wypożyczalnia
There are copies available to loan: sygn. 004 (2 egz.)
Notes:
General note
Wydanie 3. odnosi się do oryginału
Formatted contents note
Zawiera: R. 1 Umożliwianie komputerom uczenia się z danych: Tworzenie inteligentnych maszyn służących do przekształcania danych w wiedzę; Trzy różne rodzaje uczenia maszynowego; Wprowadzenie do podstawowej terminologii i notacji; Strategia tworzenia systemów uczenia maszynowego; Wykorzystywanie środowiska Python do uczenia maszynowego; Podsumowanie. R. 2 Trenowanie prostych algorytmów uczenia maszynowego w celach klasyfikacji: Sztuczne neurony - rys historyczny początków uczenia maszynowego; Implementacja algorytmu uczenia perceptronu w Pythonie; Adaptacyjne neurony liniowe i zbieżność uczenia; Podsumowanie. R. 3 Stosowanie klasyfikatorów uczenia maszynowego za pomocą biblioteki scikit-learn: Wybór algorytmu klasyfikującego; Pierwsze kroki z biblioteką scikit-learn - uczenie perceptronu; Modelowanie prawdopodobieństwa przynależności do klasy za pomocą regresji logistycznej; Wyznaczanie maksymalnego marginesu za pomocą maszyn wektorów nośnych; Rozwiązywanie nieliniowych problemów za pomocą jądra SVM; Uczenie drzew decyzyjnych; Algorytm k-najbliższych sąsiadów - model leniwego uczenia; Podsumowanie. R. 4 Tworzenie dobrych zestawów danych uczących - wstępne przetwarzanie danych: Kwestia brakujących danych; Przetwarzanie danych kategorialnych; Rozdzielanie zestawu danych na oddzielne podzbiory uczący i testowy; Skalowanie cech; Dobór odpowiednich cech; Ocenianie istotności cech za pomocą algorytmu losowego lasu; Podsumowanie. R. 5 Kompresja danych poprzez redukcję wymiarowości: Nienadzorowana redukcja wymiarowości za pomocą analizy głównych składowych; Nadzorowana kompresja danych za pomocą liniowej analizy dyskryminacyjnej; Jądrowa analiza głównych składowych jako metoda odwzorowywania nierozdzielnych liniowo klas; Podsumowanie. R. 6 Najlepsze metody oceny modelu i strojenie parametryczne: Usprawnianie cyklu pracy za pomocą kolejkowania; Stosowanie k-krotnego sprawdzianu krzyżowego w ocenie skuteczności modelu; Sprawdzanie algorytmów za pomocą krzywych uczenia i krzywych walidacji; Dostrajanie modeli uczenia maszynowego za pomocą metody przeszukiwania siatki; Przegląd wskaźników oceny skuteczności; Podsumowanie. R. 7 Łączenie różnych modeli w celu uczenia zespołowego: Uczenie zespołów; Łączenie klasyfikatorów za pomocą algorytmu głosowania większościowego; Agregacja - tworzenie zespołu klasyfikatorów za pomocą próbek początkowych; Usprawnianie słabych klasyfikatorów za pomocą wzmocnienia adaptacyjnego; Podsumowanie. R. 8 Wykorzystywanie uczenia maszynowego w analizie sentymentów: Przygotowywanie zestawu danych IMDb movie review do przetwarzania tekstu; Wprowadzenie do modelu worka słów; Uczenie modelu regresji logistycznej w celu klasyfikowania tekstu; Praca z większą ilością danych - algorytmy sieciowe i uczenie pozardzeniowe; Modelowanie tematyczne za pomocą alokacji ukrytej zmiennej Dirichleta; Podsumowanie. R. 9 Wdrażanie modelu uczenia maszynowego do aplikacji sieciowej: Serializacja wyuczonych estymatorów biblioteki scikit-learn; Konfigurowanie bazy danych SQLite; Tworzenie aplikacji sieciowej za pomocą środowiska Flask; Przekształcanie klasyfikatora recenzji w aplikację sieciową; Umieszczanie aplikacji sieciowej na publicznym serwerze; Podsumowanie. R. 10 Przewidywanie ciągłych zmiennych docelowych za pomocą analizy regresywnej: Wprowadzenie do regresji liniowej; Zestaw danych Housing; Implementacja modelu regresji liniowej wykorzystującego zwykłą metodę najmniejszych kwadratów; Uczenie odpornego modelu regresywnego za pomocą algorytmu RANSAC; Ocenianie skuteczności modeli regresji liniowej; Stosowanie regularyzowanych metod regresji; Przekształcanie modelu regresji liniowej w krzywą - regresja wielomianowa; Analiza nieliniowych relacji za pomocą algorytmu losowego lasu; Podsumowanie. R. 11 Praca z nieoznakowanymi danymi - analiza skupień: Grupowanie obiektów na podstawie podobieństwa przy użyciu algorytmu centroidów; Organizowanie skupień do postaci drzewa skupień; Wyznaczanie rejonów o dużej gęstości za pomocą algorytmu DBSCAN; Podsumowanie. R. 12 Implementowanie wielowarstwowej sieci neuronowej od podstaw: Modelowanie złożonych funkcji przy użyciu sztucznych sieci neuronowych; Klasyfikowanie pisma odręcznego; Trenowanie sztucznej sieci neuronowej; Zbieżność w sieciach neuronowych; Jeszcze słowo o implementacji sieci neuronowej; Podsumowanie. R. 13 Równoległe przetwarzanie sieci neuronowych za pomocą biblioteki TensorFlow: Biblioteka TensorFlow a skuteczność uczenia; Pierwsze kroki z biblioteką TensorFlow; Tworzenie potoków wejściowych za pomocą tf.data, czyli interfejsu danych TensorFlow; Tworzenie modelu sieci neuronowej za pomocą modułu TensorFlow; Dobór funkcji aktywacji dla wielowarstwowych sieci neuronowych; Podsumowanie. R. 14 Czas na szczegóły - mechanizm działania biblioteki TensorFlow: Cechy kluczowe TensorFlow; Grafy obliczeniowe TensorFlow: migracja do wersji TensorFlow 2; Obiekty Variable służące do przechowywania i aktualizowania parametrów modelu; Obliczanie gradientów za pomocą różniczkowania automatycznego i klasy GradientTape; Upraszczanie implementacji popularnych struktur za pomocą interfejsu Keras; Estymatory TensorFlow; Podsumowanie. R. 15 Klasyfikowanie obrazów za pomocą głębokich splotowych sieci neuronowych: Podstawowe elementy splotowej sieci neuronowej; Implementowanie sieci CNN; Implementacja głębokiej sieci splotowej za pomocą biblioteki TensorFlow; Klasyfikowanie płci na podstawie zdjęć twarzy za pomocą sieci splotowej; Podsumowanie. R. 16 Modelowanie danych sekwencyjnych za pomocą rekurencyjnych sieci neuronowych: Wprowadzenie do danych sekwencyjnych; Sieci rekurencyjne służące do modelowania sekwencji; Implementowanie wielowarstwowej sieci rekurencyjnej przy użyciu biblioteki TensorFlow do modelowania sekwencji; Przetwarzanie języka za pomocą modelu transformatora; Podsumowanie. R. 17. Generatywne sieci przeciwstawne w zadaniach syntetyzowania nowych danych: Wprowadzenie do generatywnych sieci przeciwstawnych; Implementowanie sieci GAN od podstaw; Poprawianie jakości syntetyzowanych obrazów za pomocą sieci GAN: splotowej i Wassersteina; Inne zastosowania modeli GAN; Podsumowanie. R. 18 Uczenie przez wzmacnianie jako mechanizm podejmowania decyzji w skomplikowanych środowiskach: Wprowadzenie: uczenie z doświadczenia; Podstawy teoretyczne uczenia przez wzmacnianie; Algorytmy uczenia przez wzmacnianie; Implementacja naszego pierwszego algorytmu uczenia przez wzmacnianie; Podsumowanie rozdziału i książki.
Reviews:
The item has been added to the basket. If you don't know what the basket is for, click here for details.
Do not show it again