Deep learning
Sortowanie
Źródło opisu
Książki
(2)
Forma i typ
Książki
(2)
Publikacje fachowe
(1)
Dostępność
dostępne
(2)
Placówka
Wypożyczalnia
(2)
Autor
Gugger Sylvain
(1)
Howard Jeremy
(1)
Janusz Jacek
(1)
Mirjalili Vahid
(1)
Raschka Sebastian
(1)
Sawka Krzysztof
(1)
Rok wydania
2020 - 2024
(2)
Okres powstania dzieła
2001-
(1)
Kraj wydania
Polska
(2)
Język
polski
(2)
Temat
Przedsiębiorstwo
(1422)
Zarządzanie
(682)
Unia Europejska
(634)
Polska
(627)
Samorząd terytorialny
(531)
Deep learning
(-)
Środki masowego przekazu
(427)
Kadry
(418)
Marketing
(414)
Gospodarka
(406)
Banki
(383)
Organizacja
(379)
Prawo pracy
(358)
Internet
(352)
Komunikacja społeczna
(333)
Globalizacja
(322)
Integracja europejska
(318)
Prawo
(307)
Nauczanie początkowe
(300)
Postępowanie administracyjne
(284)
Dziecko
(280)
Polityka
(265)
Rodzina
(262)
Prawa człowieka
(256)
Unia Europejska (UE)
(253)
Prawo administracyjne
(252)
Praca
(245)
Zarządzanie strategiczne
(245)
Prawo cywilne
(243)
Pedagogika
(242)
Administracja
(241)
Język angielski
(238)
Prawo karne
(238)
Szkolnictwo
(236)
Nauczyciele
(235)
Finanse
(234)
Państwo
(233)
Podatek
(231)
Polityka społeczna
(230)
Kultura
(229)
Psychologia
(227)
Finanse publiczne
(226)
Socjologia
(217)
Społeczeństwo
(217)
Innowacje
(216)
Rachunkowość
(216)
Nauczanie
(213)
Szkolnictwo wyższe
(212)
Zarządzanie jakością
(212)
Opieka społeczna
(209)
Reklama
(209)
Wychowanie
(209)
Rynek pracy
(207)
Budżety terenowe
(201)
Kobieta
(200)
Menedżerowie
(200)
Nauczanie zintegrowane
(199)
Młodzież
(198)
Nieruchomości
(194)
Prawo międzynarodowe
(194)
Konkurencja
(193)
Public relations
(192)
Prawo wspólnotowe europejskie
(191)
Przedsiębiorstwa małe i średnie
(189)
Osobowość
(188)
Zatrudnienie
(183)
Konsumenci (ekon.)
(181)
Bezrobocie
(179)
Społeczeństwo informacyjne
(179)
Prawo karne procesowe
(177)
Rynek finansowy
(177)
Ochrona środowiska
(176)
Prawo Unii Europejskiej
(175)
Rynek kapitałowy
(175)
Prawo gospodarcze
(165)
Kształcenie
(157)
Umowa
(157)
Filozofia
(152)
Logistyka gospodarcza
(151)
Turystyka
(150)
Sądownictwo
(148)
Zarządzanie wiedzą
(148)
Decyzje
(146)
Papiery wartościowe
(146)
Polityka międzynarodowa
(145)
Oświata
(144)
Ubezpieczenia społeczne
(144)
Demokracja
(140)
Płaca
(137)
Stosunki interpersonalne
(136)
Psychologia społeczna
(135)
Służba zdrowia
(135)
Prawo konstytucyjne
(134)
Inwestycje
(132)
Postępowanie cywilne
(132)
Terroryzm
(132)
Prawo autorskie
(128)
Język polski
(126)
Zarządzanie zasobami ludzkimi (HRM)
(124)
Motywacja pracy
(120)
Bezpieczeństwo publiczne
(119)
Gatunek
Podręcznik
(2)
Dziedzina i ujęcie
Informatyka i technologie informacyjne
(2)
2 wyniki Filtruj
Brak okładki
Książka
W koszyku
Opinie o książce; Wstęp: Dla kogo jest przeznaczona ta książka?; Co musisz wiedzieć?; Czego się nauczysz dzięki tej książce?; Przedmowa; Część I. Uczenie głębokie w praktyce; Rozdział 1. Podróż po świecie uczenia głębokiego: Uczenie głębokie jest dla każdego; Sieci neuronowe krótka historia; Kim jesteśmy?; Jak zdobyć wiedzę o uczeniu głębokim?; Twoje projekty i Twój sposób myślenia; Oprogramowanie: PyTorch, fastai i Jupyter (i dlaczego nie ma to znaczenia); Twój pierwszy model; Uzyskanie dostępu do serwera z procesorem graficznym i możliwością realizowania uczenia głębokiego; Uruchomienie pierwszego notatnika; Co to jest uczenie maszynowe?; Co to jest sieć neuronowa?; Trochę słownictwa związanego z uczeniem głębokim; Ograniczenia związane z uczeniem maszynowym; Jak działa nasz program do rozpoznawania obrazów; Czego nauczył się program do rozpoznawania obrazów?; Systemy do rozpoznawania obrazów mogą radzić sobie z zadaniami innymi niż analiza obrazów; Podsumowanie słownictwa; Uczenie głębokie to nie tylko klasyfikowanie obrazów; Zbiory walidacyjne i testowe; Użycie oceny w definiowaniu zbiorów testowych; Moment, w którym wybierasz swoją własną przygodę; Pytania; Dalsze badania; Rozdział 2. Od modelu do produkcji: Praktyczne zastosowanie uczenia głębokiego; Rozpoczęcie projektu; Stan uczenia głębokiego; Widzenie komputerowe; Dokumenty tekstowe (przetwarzanie języka naturalnego); Łączenie tekstu z obrazami; Dane tabelaryczne; Systemy rekomendacji; Inne typy danych; Metoda układu napędowego; Gromadzenie danych; Od danych do obiektu DataLoaders; Generowanie sztucznych danych; Trenowanie modelu i używanie go do czyszczenia danych; Przekształcanie modelu w aplikację internetową; Korzystanie z modelu do wnioskowania; Tworzenie w notatniku aplikacji na podstawie modelu; Zamień notatnik w prawdziwą aplikację; Wdrażanie aplikacji; Jak uniknąć katastrofy; Nieprzewidziane konsekwencje i pętle sprzężenia zwrotnego; Zapisuj!; Pytania; Dalsze badania; Rozdział 3. Etyka danych: Kluczowe przykłady etyki danych; Błędy i regresja: wadliwy algorytm używany do świadczeń opieki zdrowotnej; Pętle sprzężenia zwrotnego: system rekomendacji YouTube; Uprzedzenie: wykładowca Latanya Sweeney aresztowana; Dlaczego ma to znaczenie?; Integracja uczenia maszynowego z projektowaniem produktu; Zagadnienia związane z etyką danych; Regres i odpowiedzialność; Pętle sprzężenia zwrotnego; Uprzedzenie; Uprzedzenie historyczne; Uprzedzenie pomiarowe; Uprzedzenie agregacyjne; Uprzedzenie reprezentacyjne; Rozwiązywanie problemów związanych z różnymi rodzajami uprzedzeń; Dezinformacja; Identyfikowanie i rozwiązywanie problemów etycznych; Przeanalizuj projekt, nad którym pracujesz; Procesy do zaimplementowania; Pryzmat etyczny; Potęga różnorodności; Uczciwość, odpowiedzialność i przejrzystość; Rola polityki; Skuteczność przepisów; Prawa i polityka; Samochody historyczny precedens; Wnioski; Pytania; Dalsze badania; Uczenie głębokie w praktyce to wszystko!; Część II. Zrozumienie aplikacji fastai: Rozdział 4. Jak to wygląda od środka trenowanie klasyfikatora cyfr: Piksele podstawa widzenia komputerowego; Podejście pierwsze: podobieństwo pikseli; Tablice NumPy i tensory PyTorch; Wyznaczanie wskaźników z wykorzystaniem rozgłaszania; Stochastyczny spadek wzdłuż gradientu; Wyznaczanie gradientów; Stopniowanie ze współczynnikiem uczenia; Kompleksowy przykład użycia stochastycznego spadku wzdłuż gradientu; Etap 1.: inicjalizacja parametrów; Etap 2.: obliczanie prognoz; Etap 3.: obliczanie straty; Etap 4.: obliczanie gradientów; Etap 5.: stopniowanie wag; Etap 6.: powtórzenie procesu; Etap 7.: koniec; Podsumowanie procesu stochastycznego spadku wzdłuż gradientu; Funkcja straty MNIST; Sigmoida; Stochastyczny spadek wzdłuż gradientu i minipaczki; Złożenie wszystkiego w całość; Tworzenie optymalizatora; Wprowadzanie nieliniowości; Bardziej rozbudowane modele; Podsumowanie słownictwa; Pytania; Dalsze badania; Rozdział 5. Klasyfikowanie obrazów: Od psów i kotów do ras zwierząt domowych; Dobór wstępny; Sprawdzanie i debugowanie obiektu DataBlock; Entropia krzyżowa; Przeglądanie aktywacji i etykiet; Softmax; Logarytm prawdopodobieństwa; Obliczanie logarytmu; Interpretacja modelu; Poprawianie modelu; Wyszukiwarka współczynnika uczenia; Odmrażanie i uczenie transferowe; Dyskryminatywne współczynniki uczenia; Wybór liczby epok; Bardziej złożone architektury; Podsumowanie; Pytania; Dalsze badania; Rozdział 6. Inne zagadnienia związane z widzeniem komputerowym: Klasyfikacja wieloetykietowa; Dane; Tworzenie obiektu DataBlock; Binarna entropia krzyżowa; Regresja; Gromadzenie danych; Trenowanie modelu; Podsumowanie; Pytania; Dalsze badania; Rozdział 7. Trenowanie supernowoczesnego modelu: Imagenette; Normalizacja; Progresywna zmiana rozmiaru; Wydłużenie czasu testu; Mixup; Wygładzanie etykiet; Podsumowanie; Pytania; Dalsze badania; Rozdział 8. Szczegółowa analiza filtrowania zespołowego: Pierwszy kontakt z danymi; Czynniki ukryte; Tworzenie obiektu DataLoaders; Filtrowanie zespołowe od podstaw; Wygaszanie wag; Tworzenie własnego modułu osadzania; Interpretacja osadzeń i przesunięć; Użycie aplikacji fastai.collab; Odległość osadzania; Uruchamianie modelu filtrowania zespołowego; Uczenie głębokie w filtrowaniu zespołowym; Podsumowanie; Pytania; Dalsze badania; Rozdział 9. Szczegółowa analiza modelowania tabelarycznego: Osadzenia skategoryzowane; Poza uczeniem głębokim; Zbiór danych; Konkursy Kaggle; Sprawdzenie danych; Drzewa decyzyjne; Obsługa dat; Użycie obiektów TabularPandas i TabularProc; Tworzenie drzewa decyzyjnego; Zmienne skategoryzowane; Lasy losowe; Tworzenie lasu losowego; Błąd out-of-bag; Interpretacja modelu; Wariancja drzewa dla pewności prognozy; Ważności cech; Usuwanie zmiennych o niskiej ważności; Usuwanie zbędnych cech; Częściowa zależność; Wyciek danych; Interpreter drzewa; Ekstrapolacja i sieci neuronowe; Problem ekstrapolacji; Wyszukiwanie danych spoza domeny; Użycie sieci neuronowej; Łączenie w zespoły; Wzmacnianie; Łączenie osadzeń z innymi metodami; Podsumowanie; Pytania; Dalsze badania; Rozdział 10. Szczegółowa analiza przetwarzania języka naturalnego rekurencyjne sieci neuronowe: Wstępne przetwarzanie tekstu; Tokenizacja; Tokenizacja słów przy użyciu biblioteki fastai; Tokenizacja podłańcuchów; Zamiana na liczby przy użyciu biblioteki fastai; Umieszczanie tekstu w paczkach dla modelu językowego; Trenowanie klasyfikatora tekstu; Użycie klasy DataBlock w modelu językowym; Dostrajanie modelu językowego; Zapisywanie i wczytywanie modeli; Generowanie tekstu; Tworzenie klasyfikatora DataLoaders; Dostrajanie klasyfikatora; Dezinformacja i modele językowe; Podsumowanie; Pytania; Dalsze badania; Rozdział 11. Przygotowywanie danych dla modeli za pomocą interfejsu API pośredniego poziomu z biblioteki fastai: Szczegółowa analiza warstwowego interfejsu programistycznego biblioteki fastai; Transformacje; Tworzenie własnej transformacji; Klasa Pipeline potoku transformacji; TfmdLists i Datasets kolekcje przekształcone; TfmdLists; Datasets; Zastosowanie interfejsu API pośredniego poziomu SiamesePair; Podsumowanie; Pytania; Dalsze badania; Zrozumienie aplikacji fastai podsumowanie; Część III. Podstawy uczenia głębokiego: Rozdział 12. Tworzenie od podstaw modelu językowego: Dane; Tworzenie od podstaw pierwszego modelu językowego; Obsługa modelu językowego w bibliotece PyTorch; Pierwsza rekurencyjna sieć neuronowa; Ulepszanie sieci RNN; Obsługa stanu sieci RNN; Tworzenie większej liczby sygnałów; Wielowarstwowe rekurencyjne sieci neuronowe; Model; Eksplodujące lub zanikające aktywacje; Architektura LSTM; Tworzenie modelu LSTM od podstaw; Trenowanie modelu językowego wykorzystującego architekturę LSTM; Regularyzacja modelu LSTM; Dropout; Regularyzacja aktywacji i czasowa regularyzacja aktywacji; Trening regularyzowanego modelu LSTM z wiązanymi wagami; Podsumowanie; Pytania; Dalsze badania; Rozdział 13. Konwolucyjne sieci neuronowe: Magia konwolucji; Odwzorowywanie jądra splotu; Konwolucje w bibliotece PyTorch; Kroki i dopełnienie; Zrozumienie równań konwolucji; Pierwsza konwolucyjna sieć neuronowa; Tworzenie konwolucyjnej sieci neuronowej; Zrozumienie arytmetyki konwolucji; Pola receptywne; Kilka uwag o Twitterze; Obrazy kolorowe; Ulepszanie stabilności trenowania; Prosty model bazowy; Zwiększenie wielkości paczki; Trenowanie jednocykliczne; Normalizacja wsadowa; Podsumowanie; Pytania; Dalsze badania; Rozdział 14. Sieci ResNet: Powrót do Imagenette; Tworzenie nowoczesnej konwolucyjnej sieci neuronowej ResNet; Pomijanie połączeń; Model sieci ResNet na poziomie światowym; Warstwy z wąskim gardłem; Podsumowanie; Pytania; Dalsze badania; Rozdział 15. Szczegółowa analiza architektur aplikacji: Widzenie komputerowe; Funkcja cnn_learner; Funkcja unet_learner; Model syjamski; Przetwarzanie języka naturalnego; Dane tabelaryczne; Podsumowanie; Pytania; Dalsze badania; Rozdział 16. Proces trenowania: Tworzenie modelu bazowego; Ogólny optymalizator; Momentum; RMSProp; Adam; Dwie metody wygaszania wag; Wywołania zwrotne; Tworzenie wywołania zwrotnego; Kolejność wywołań zwrotnych i wyjątki; Podsumowanie; Pytania; Dalsze badania; Podstawy uczenia głębokiego podsumowanie; Część IV. Uczenie głębokie od podstaw: Rozdział 17. Sieć neuronowa od podstaw: Tworzenie od podstaw warstwy sieci neuronowej; Modelowanie neuronu; Mnożenie macierzy od podstaw; Arytmetyka składowych; Rozgłaszanie; Rozgłaszanie wartości skalarnej; Rozgłaszanie wektora na macierz; Zasady rozgłaszania; Konwencja sumacyjna Einsteina; Przejścia w przód i wstecz; Definiowanie i inicjalizowanie warstwy; Gradienty i przejście wstecz; Modyfikowanie modelu; Implementacja przy użyciu biblioteki PyTorch; Podsumowanie; Pytania; Dalsze badania; Rozdział 18. Interpretacja sieci CNN przy użyciu mapy aktywacji klas: Mapa aktywacji klas i punkty zaczepienia; Gradientowa mapa aktywacji klas; Podsumowanie; Pytania; Dalsze badania; Rozdział 19. Klasa Learner biblioteki fastai od podstaw: Dane; Klasa Dataset; Klasy Module i Parameter; Prosta konwolucyjna sieć neuronowa; Funkcja straty; Klasa Learner; Wywołania zwrotne; Harmonogram modyfikowania współczynnika uczenia; Podsumowanie; Pytania; Dalsze badania; Rozdział 20. Uwagi końcowe: Dodatek A. Tworzenie bloga; Blogowanie przy użyciu usługi GitHub Pages; Tworzenie repozytorium; Konfigurowanie strony głównej; Tworzenie wpisów; Synchronizowanie GitHuba z własnym komputerem; Tworzenie bloga za pomocą notatnika Jupytera; Dodatek B. Lista kontrolna projektu dotyczącego danych; Analitycy danych; Strategia; Dane; Analityka; Implementacja; Utrzymywanie; Ograniczenia; O autorach; Podziękowania; Kolofon.
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 004 (2 egz.)
Brak okładki
Książka
W koszyku
Zawiera: R. 1 Umożliwianie komputerom uczenia się z danych: Tworzenie inteligentnych maszyn służących do przekształcania danych w wiedzę; Trzy różne rodzaje uczenia maszynowego; Wprowadzenie do podstawowej terminologii i notacji; Strategia tworzenia systemów uczenia maszynowego; Wykorzystywanie środowiska Python do uczenia maszynowego; Podsumowanie. R. 2 Trenowanie prostych algorytmów uczenia maszynowego w celach klasyfikacji: Sztuczne neurony - rys historyczny początków uczenia maszynowego; Implementacja algorytmu uczenia perceptronu w Pythonie; Adaptacyjne neurony liniowe i zbieżność uczenia; Podsumowanie. R. 3 Stosowanie klasyfikatorów uczenia maszynowego za pomocą biblioteki scikit-learn: Wybór algorytmu klasyfikującego; Pierwsze kroki z biblioteką scikit-learn - uczenie perceptronu; Modelowanie prawdopodobieństwa przynależności do klasy za pomocą regresji logistycznej; Wyznaczanie maksymalnego marginesu za pomocą maszyn wektorów nośnych; Rozwiązywanie nieliniowych problemów za pomocą jądra SVM; Uczenie drzew decyzyjnych; Algorytm k-najbliższych sąsiadów - model leniwego uczenia; Podsumowanie. R. 4 Tworzenie dobrych zestawów danych uczących - wstępne przetwarzanie danych: Kwestia brakujących danych; Przetwarzanie danych kategorialnych; Rozdzielanie zestawu danych na oddzielne podzbiory uczący i testowy; Skalowanie cech; Dobór odpowiednich cech; Ocenianie istotności cech za pomocą algorytmu losowego lasu; Podsumowanie. R. 5 Kompresja danych poprzez redukcję wymiarowości: Nienadzorowana redukcja wymiarowości za pomocą analizy głównych składowych; Nadzorowana kompresja danych za pomocą liniowej analizy dyskryminacyjnej; Jądrowa analiza głównych składowych jako metoda odwzorowywania nierozdzielnych liniowo klas; Podsumowanie. R. 6 Najlepsze metody oceny modelu i strojenie parametryczne: Usprawnianie cyklu pracy za pomocą kolejkowania; Stosowanie k-krotnego sprawdzianu krzyżowego w ocenie skuteczności modelu; Sprawdzanie algorytmów za pomocą krzywych uczenia i krzywych walidacji; Dostrajanie modeli uczenia maszynowego za pomocą metody przeszukiwania siatki; Przegląd wskaźników oceny skuteczności; Podsumowanie. R. 7 Łączenie różnych modeli w celu uczenia zespołowego: Uczenie zespołów; Łączenie klasyfikatorów za pomocą algorytmu głosowania większościowego; Agregacja - tworzenie zespołu klasyfikatorów za pomocą próbek początkowych; Usprawnianie słabych klasyfikatorów za pomocą wzmocnienia adaptacyjnego; Podsumowanie. R. 8 Wykorzystywanie uczenia maszynowego w analizie sentymentów: Przygotowywanie zestawu danych IMDb movie review do przetwarzania tekstu; Wprowadzenie do modelu worka słów; Uczenie modelu regresji logistycznej w celu klasyfikowania tekstu; Praca z większą ilością danych - algorytmy sieciowe i uczenie pozardzeniowe; Modelowanie tematyczne za pomocą alokacji ukrytej zmiennej Dirichleta; Podsumowanie. R. 9 Wdrażanie modelu uczenia maszynowego do aplikacji sieciowej: Serializacja wyuczonych estymatorów biblioteki scikit-learn; Konfigurowanie bazy danych SQLite; Tworzenie aplikacji sieciowej za pomocą środowiska Flask; Przekształcanie klasyfikatora recenzji w aplikację sieciową; Umieszczanie aplikacji sieciowej na publicznym serwerze; Podsumowanie. R. 10 Przewidywanie ciągłych zmiennych docelowych za pomocą analizy regresywnej: Wprowadzenie do regresji liniowej; Zestaw danych Housing; Implementacja modelu regresji liniowej wykorzystującego zwykłą metodę najmniejszych kwadratów; Uczenie odpornego modelu regresywnego za pomocą algorytmu RANSAC; Ocenianie skuteczności modeli regresji liniowej; Stosowanie regularyzowanych metod regresji; Przekształcanie modelu regresji liniowej w krzywą - regresja wielomianowa; Analiza nieliniowych relacji za pomocą algorytmu losowego lasu; Podsumowanie. R. 11 Praca z nieoznakowanymi danymi - analiza skupień: Grupowanie obiektów na podstawie podobieństwa przy użyciu algorytmu centroidów; Organizowanie skupień do postaci drzewa skupień; Wyznaczanie rejonów o dużej gęstości za pomocą algorytmu DBSCAN; Podsumowanie. R. 12 Implementowanie wielowarstwowej sieci neuronowej od podstaw: Modelowanie złożonych funkcji przy użyciu sztucznych sieci neuronowych; Klasyfikowanie pisma odręcznego; Trenowanie sztucznej sieci neuronowej; Zbieżność w sieciach neuronowych; Jeszcze słowo o implementacji sieci neuronowej; Podsumowanie. R. 13 Równoległe przetwarzanie sieci neuronowych za pomocą biblioteki TensorFlow: Biblioteka TensorFlow a skuteczność uczenia; Pierwsze kroki z biblioteką TensorFlow; Tworzenie potoków wejściowych za pomocą tf.data, czyli interfejsu danych TensorFlow; Tworzenie modelu sieci neuronowej za pomocą modułu TensorFlow; Dobór funkcji aktywacji dla wielowarstwowych sieci neuronowych; Podsumowanie. R. 14 Czas na szczegóły - mechanizm działania biblioteki TensorFlow: Cechy kluczowe TensorFlow; Grafy obliczeniowe TensorFlow: migracja do wersji TensorFlow 2; Obiekty Variable służące do przechowywania i aktualizowania parametrów modelu; Obliczanie gradientów za pomocą różniczkowania automatycznego i klasy GradientTape; Upraszczanie implementacji popularnych struktur za pomocą interfejsu Keras; Estymatory TensorFlow; Podsumowanie. R. 15 Klasyfikowanie obrazów za pomocą głębokich splotowych sieci neuronowych: Podstawowe elementy splotowej sieci neuronowej; Implementowanie sieci CNN; Implementacja głębokiej sieci splotowej za pomocą biblioteki TensorFlow; Klasyfikowanie płci na podstawie zdjęć twarzy za pomocą sieci splotowej; Podsumowanie. R. 16 Modelowanie danych sekwencyjnych za pomocą rekurencyjnych sieci neuronowych: Wprowadzenie do danych sekwencyjnych; Sieci rekurencyjne służące do modelowania sekwencji; Implementowanie wielowarstwowej sieci rekurencyjnej przy użyciu biblioteki TensorFlow do modelowania sekwencji; Przetwarzanie języka za pomocą modelu transformatora; Podsumowanie. R. 17. Generatywne sieci przeciwstawne w zadaniach syntetyzowania nowych danych: Wprowadzenie do generatywnych sieci przeciwstawnych; Implementowanie sieci GAN od podstaw; Poprawianie jakości syntetyzowanych obrazów za pomocą sieci GAN: splotowej i Wassersteina; Inne zastosowania modeli GAN; Podsumowanie. R. 18 Uczenie przez wzmacnianie jako mechanizm podejmowania decyzji w skomplikowanych środowiskach: Wprowadzenie: uczenie z doświadczenia; Podstawy teoretyczne uczenia przez wzmacnianie; Algorytmy uczenia przez wzmacnianie; Implementacja naszego pierwszego algorytmu uczenia przez wzmacnianie; Podsumowanie rozdziału i książki.
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 004 (2 egz.)
Pozycja została dodana do koszyka. Jeśli nie wiesz, do czego służy koszyk, kliknij tutaj, aby poznać szczegóły.
Nie pokazuj tego więcej