Howard Jeremy
Sortowanie
Źródło opisu
Książki
(1)
Forma i typ
Książki
(1)
Dostępność
dostępne
(1)
Placówka
Wypożyczalnia
(1)
Autor
Praca zbiorowa
(159)
Kaczmarczyk Michał (1981- )
(61)
Oleśniewicz Piotr (1968- )
(61)
Radwański Zbigniew (1924-2012)
(57)
Kamińska Aleksandra (1976- )
(54)
Howard Jeremy
(-)
Borski Maciej (1975- )
(50)
Denek Kazimierz (1932-2016)
(48)
Kosikowski Cezary (1942- )
(46)
Świątkowski Andrzej M. (1944- )
(46)
Barcz Jan (1953- )
(45)
Evans Virginia
(40)
Czarnecki Kazimierz M. (1933- )
(39)
Huczek Marian (1939-2023)
(39)
Faliszewska Jolanta
(38)
Fleszer Dorota (1971- )
(37)
Łuczkiewicz Grzegorz
(36)
Barta Janusz (1947-2021)
(35)
Lityński Adam (1940- )
(35)
Wróbel Andrzej (1953- )
(35)
Baran Krzysztof Wojciech
(34)
Borkowski Janusz (1934-2012)
(33)
Chodyński Andrzej
(32)
Gurdek Magdalena (1977- )
(32)
Krawiec Grzegorz (1977- )
(32)
Markiewicz Ryszard (1948- )
(31)
Garlicki Leszek (1946- )
(30)
Marek Andrzej (1940-2012)
(30)
Wierzbowski Marek (1946- )
(30)
Adamiak Barbara (1949- )
(29)
Nowak Edward (1951- )
(29)
Rozmus Dariusz (1961- )
(29)
Niewiadomski Zygmunt (1950- )
(28)
Pawlak Mirosław
(28)
Penc Józef (1939-2017)
(28)
Rogacka-Łukasik Anna (1980- )
(28)
Śliwerski Bogusław (1954- )
(28)
Lewicka Maria
(27)
Radzicki Józef
(27)
Skrzydło Wiesław (1929-2021)
(27)
Wojtaszczyk Konstanty Adam
(27)
Bauman Zygmunt (1925-2017)
(26)
Bieniek Gerard
(26)
Chmaj Marek (1969- )
(26)
Izdebski Hubert (1947- )
(26)
Sadowska-Snarska Cecylia
(26)
Smolarek Małgorzata (1974- )
(26)
Tokarczyk Roman Andrzej (1942- )
(26)
Brodecki Zdzisław
(25)
Florek Ludwik (1946- )
(25)
Hauser Roman (1949- )
(25)
Kozioł Leszek
(25)
Wentkowska Aleksandra
(25)
Grabiec Olimpia (1975- )
(24)
Kołakowski Leszek (1927-2009)
(24)
Szeligiewicz-Urban Danuta (1959- )
(24)
Łaszczyca Grzegorz (1970- )
(24)
Chmielnicki Paweł (1972- )
(23)
Dooley Jenny
(23)
Głuchowski Jan (1940- )
(23)
Hołyst Brunon (1930- )
(23)
Leoński Zbigniew (1929-2006)
(23)
Obara Małgorzata
(23)
Shakespeare William
(23)
Kotler Philip (1931- )
(22)
Kotowski Wojciech (1950- )
(22)
Latham-Koenig Christina
(22)
Ochendowski Eugeniusz (1925-2015)
(22)
Oxenden Clive
(22)
Skowrońska-Bocian Elżbieta (1948- )
(22)
Szczepański Marek S
(22)
Winiarska Kazimiera (1948- )
(22)
Banaszak Bogusław (1955-2018)
(21)
Bielenica Krystyna
(21)
Borkowska Stanisława (1939- )
(21)
Brzeziński Bogumił (1948- )
(21)
Bura Maria
(21)
Dolnicki Bogdan (1956- )
(21)
Kwil Małgorzata
(21)
Majewski Kamil
(21)
Misiorowska Ewa
(21)
Nowicki Marek Antoni
(21)
Petkowicz Helena
(21)
Szewc Andrzej
(21)
Słomczyński Maciej
(21)
Boć Jan (1939-2017)
(20)
Cieślak Zbigniew (1954- )
(20)
Kalisz Anna
(20)
Konieczna Anna
(20)
Matan Andrzej
(20)
Mruk Henryk (1948- )
(20)
Pocztowski Aleksy (1956- )
(20)
Szpor Grażyna
(20)
Tarno Jan Paweł (1951- )
(20)
Łazowski Adam
(20)
Dobrowolska Hanna
(19)
Ehrlich Andrzej
(19)
Gepert Bożena
(19)
Juchnowicz Marta (1948- )
(19)
Kisielnicki Jerzy (1939- )
(19)
Mik Cezary (1964- )
(19)
Rok wydania
2020 - 2024
(1)
Okres powstania dzieła
2001-
(1)
Kraj wydania
Polska
(1)
Język
polski
(1)
Temat
Deep learning
(1)
Programowanie (informatyka)
(1)
Programy komputerowe
(1)
Sztuczna inteligencja
(1)
Gatunek
Podręcznik
(1)
Dziedzina i ujęcie
Informatyka i technologie informacyjne
(1)
1 wynik Filtruj
Brak okładki
Książka
W koszyku
Opinie o książce; Wstęp: Dla kogo jest przeznaczona ta książka?; Co musisz wiedzieć?; Czego się nauczysz dzięki tej książce?; Przedmowa; Część I. Uczenie głębokie w praktyce; Rozdział 1. Podróż po świecie uczenia głębokiego: Uczenie głębokie jest dla każdego; Sieci neuronowe krótka historia; Kim jesteśmy?; Jak zdobyć wiedzę o uczeniu głębokim?; Twoje projekty i Twój sposób myślenia; Oprogramowanie: PyTorch, fastai i Jupyter (i dlaczego nie ma to znaczenia); Twój pierwszy model; Uzyskanie dostępu do serwera z procesorem graficznym i możliwością realizowania uczenia głębokiego; Uruchomienie pierwszego notatnika; Co to jest uczenie maszynowe?; Co to jest sieć neuronowa?; Trochę słownictwa związanego z uczeniem głębokim; Ograniczenia związane z uczeniem maszynowym; Jak działa nasz program do rozpoznawania obrazów; Czego nauczył się program do rozpoznawania obrazów?; Systemy do rozpoznawania obrazów mogą radzić sobie z zadaniami innymi niż analiza obrazów; Podsumowanie słownictwa; Uczenie głębokie to nie tylko klasyfikowanie obrazów; Zbiory walidacyjne i testowe; Użycie oceny w definiowaniu zbiorów testowych; Moment, w którym wybierasz swoją własną przygodę; Pytania; Dalsze badania; Rozdział 2. Od modelu do produkcji: Praktyczne zastosowanie uczenia głębokiego; Rozpoczęcie projektu; Stan uczenia głębokiego; Widzenie komputerowe; Dokumenty tekstowe (przetwarzanie języka naturalnego); Łączenie tekstu z obrazami; Dane tabelaryczne; Systemy rekomendacji; Inne typy danych; Metoda układu napędowego; Gromadzenie danych; Od danych do obiektu DataLoaders; Generowanie sztucznych danych; Trenowanie modelu i używanie go do czyszczenia danych; Przekształcanie modelu w aplikację internetową; Korzystanie z modelu do wnioskowania; Tworzenie w notatniku aplikacji na podstawie modelu; Zamień notatnik w prawdziwą aplikację; Wdrażanie aplikacji; Jak uniknąć katastrofy; Nieprzewidziane konsekwencje i pętle sprzężenia zwrotnego; Zapisuj!; Pytania; Dalsze badania; Rozdział 3. Etyka danych: Kluczowe przykłady etyki danych; Błędy i regresja: wadliwy algorytm używany do świadczeń opieki zdrowotnej; Pętle sprzężenia zwrotnego: system rekomendacji YouTube; Uprzedzenie: wykładowca Latanya Sweeney aresztowana; Dlaczego ma to znaczenie?; Integracja uczenia maszynowego z projektowaniem produktu; Zagadnienia związane z etyką danych; Regres i odpowiedzialność; Pętle sprzężenia zwrotnego; Uprzedzenie; Uprzedzenie historyczne; Uprzedzenie pomiarowe; Uprzedzenie agregacyjne; Uprzedzenie reprezentacyjne; Rozwiązywanie problemów związanych z różnymi rodzajami uprzedzeń; Dezinformacja; Identyfikowanie i rozwiązywanie problemów etycznych; Przeanalizuj projekt, nad którym pracujesz; Procesy do zaimplementowania; Pryzmat etyczny; Potęga różnorodności; Uczciwość, odpowiedzialność i przejrzystość; Rola polityki; Skuteczność przepisów; Prawa i polityka; Samochody historyczny precedens; Wnioski; Pytania; Dalsze badania; Uczenie głębokie w praktyce to wszystko!; Część II. Zrozumienie aplikacji fastai: Rozdział 4. Jak to wygląda od środka trenowanie klasyfikatora cyfr: Piksele podstawa widzenia komputerowego; Podejście pierwsze: podobieństwo pikseli; Tablice NumPy i tensory PyTorch; Wyznaczanie wskaźników z wykorzystaniem rozgłaszania; Stochastyczny spadek wzdłuż gradientu; Wyznaczanie gradientów; Stopniowanie ze współczynnikiem uczenia; Kompleksowy przykład użycia stochastycznego spadku wzdłuż gradientu; Etap 1.: inicjalizacja parametrów; Etap 2.: obliczanie prognoz; Etap 3.: obliczanie straty; Etap 4.: obliczanie gradientów; Etap 5.: stopniowanie wag; Etap 6.: powtórzenie procesu; Etap 7.: koniec; Podsumowanie procesu stochastycznego spadku wzdłuż gradientu; Funkcja straty MNIST; Sigmoida; Stochastyczny spadek wzdłuż gradientu i minipaczki; Złożenie wszystkiego w całość; Tworzenie optymalizatora; Wprowadzanie nieliniowości; Bardziej rozbudowane modele; Podsumowanie słownictwa; Pytania; Dalsze badania; Rozdział 5. Klasyfikowanie obrazów: Od psów i kotów do ras zwierząt domowych; Dobór wstępny; Sprawdzanie i debugowanie obiektu DataBlock; Entropia krzyżowa; Przeglądanie aktywacji i etykiet; Softmax; Logarytm prawdopodobieństwa; Obliczanie logarytmu; Interpretacja modelu; Poprawianie modelu; Wyszukiwarka współczynnika uczenia; Odmrażanie i uczenie transferowe; Dyskryminatywne współczynniki uczenia; Wybór liczby epok; Bardziej złożone architektury; Podsumowanie; Pytania; Dalsze badania; Rozdział 6. Inne zagadnienia związane z widzeniem komputerowym: Klasyfikacja wieloetykietowa; Dane; Tworzenie obiektu DataBlock; Binarna entropia krzyżowa; Regresja; Gromadzenie danych; Trenowanie modelu; Podsumowanie; Pytania; Dalsze badania; Rozdział 7. Trenowanie supernowoczesnego modelu: Imagenette; Normalizacja; Progresywna zmiana rozmiaru; Wydłużenie czasu testu; Mixup; Wygładzanie etykiet; Podsumowanie; Pytania; Dalsze badania; Rozdział 8. Szczegółowa analiza filtrowania zespołowego: Pierwszy kontakt z danymi; Czynniki ukryte; Tworzenie obiektu DataLoaders; Filtrowanie zespołowe od podstaw; Wygaszanie wag; Tworzenie własnego modułu osadzania; Interpretacja osadzeń i przesunięć; Użycie aplikacji fastai.collab; Odległość osadzania; Uruchamianie modelu filtrowania zespołowego; Uczenie głębokie w filtrowaniu zespołowym; Podsumowanie; Pytania; Dalsze badania; Rozdział 9. Szczegółowa analiza modelowania tabelarycznego: Osadzenia skategoryzowane; Poza uczeniem głębokim; Zbiór danych; Konkursy Kaggle; Sprawdzenie danych; Drzewa decyzyjne; Obsługa dat; Użycie obiektów TabularPandas i TabularProc; Tworzenie drzewa decyzyjnego; Zmienne skategoryzowane; Lasy losowe; Tworzenie lasu losowego; Błąd out-of-bag; Interpretacja modelu; Wariancja drzewa dla pewności prognozy; Ważności cech; Usuwanie zmiennych o niskiej ważności; Usuwanie zbędnych cech; Częściowa zależność; Wyciek danych; Interpreter drzewa; Ekstrapolacja i sieci neuronowe; Problem ekstrapolacji; Wyszukiwanie danych spoza domeny; Użycie sieci neuronowej; Łączenie w zespoły; Wzmacnianie; Łączenie osadzeń z innymi metodami; Podsumowanie; Pytania; Dalsze badania; Rozdział 10. Szczegółowa analiza przetwarzania języka naturalnego rekurencyjne sieci neuronowe: Wstępne przetwarzanie tekstu; Tokenizacja; Tokenizacja słów przy użyciu biblioteki fastai; Tokenizacja podłańcuchów; Zamiana na liczby przy użyciu biblioteki fastai; Umieszczanie tekstu w paczkach dla modelu językowego; Trenowanie klasyfikatora tekstu; Użycie klasy DataBlock w modelu językowym; Dostrajanie modelu językowego; Zapisywanie i wczytywanie modeli; Generowanie tekstu; Tworzenie klasyfikatora DataLoaders; Dostrajanie klasyfikatora; Dezinformacja i modele językowe; Podsumowanie; Pytania; Dalsze badania; Rozdział 11. Przygotowywanie danych dla modeli za pomocą interfejsu API pośredniego poziomu z biblioteki fastai: Szczegółowa analiza warstwowego interfejsu programistycznego biblioteki fastai; Transformacje; Tworzenie własnej transformacji; Klasa Pipeline potoku transformacji; TfmdLists i Datasets kolekcje przekształcone; TfmdLists; Datasets; Zastosowanie interfejsu API pośredniego poziomu SiamesePair; Podsumowanie; Pytania; Dalsze badania; Zrozumienie aplikacji fastai podsumowanie; Część III. Podstawy uczenia głębokiego: Rozdział 12. Tworzenie od podstaw modelu językowego: Dane; Tworzenie od podstaw pierwszego modelu językowego; Obsługa modelu językowego w bibliotece PyTorch; Pierwsza rekurencyjna sieć neuronowa; Ulepszanie sieci RNN; Obsługa stanu sieci RNN; Tworzenie większej liczby sygnałów; Wielowarstwowe rekurencyjne sieci neuronowe; Model; Eksplodujące lub zanikające aktywacje; Architektura LSTM; Tworzenie modelu LSTM od podstaw; Trenowanie modelu językowego wykorzystującego architekturę LSTM; Regularyzacja modelu LSTM; Dropout; Regularyzacja aktywacji i czasowa regularyzacja aktywacji; Trening regularyzowanego modelu LSTM z wiązanymi wagami; Podsumowanie; Pytania; Dalsze badania; Rozdział 13. Konwolucyjne sieci neuronowe: Magia konwolucji; Odwzorowywanie jądra splotu; Konwolucje w bibliotece PyTorch; Kroki i dopełnienie; Zrozumienie równań konwolucji; Pierwsza konwolucyjna sieć neuronowa; Tworzenie konwolucyjnej sieci neuronowej; Zrozumienie arytmetyki konwolucji; Pola receptywne; Kilka uwag o Twitterze; Obrazy kolorowe; Ulepszanie stabilności trenowania; Prosty model bazowy; Zwiększenie wielkości paczki; Trenowanie jednocykliczne; Normalizacja wsadowa; Podsumowanie; Pytania; Dalsze badania; Rozdział 14. Sieci ResNet: Powrót do Imagenette; Tworzenie nowoczesnej konwolucyjnej sieci neuronowej ResNet; Pomijanie połączeń; Model sieci ResNet na poziomie światowym; Warstwy z wąskim gardłem; Podsumowanie; Pytania; Dalsze badania; Rozdział 15. Szczegółowa analiza architektur aplikacji: Widzenie komputerowe; Funkcja cnn_learner; Funkcja unet_learner; Model syjamski; Przetwarzanie języka naturalnego; Dane tabelaryczne; Podsumowanie; Pytania; Dalsze badania; Rozdział 16. Proces trenowania: Tworzenie modelu bazowego; Ogólny optymalizator; Momentum; RMSProp; Adam; Dwie metody wygaszania wag; Wywołania zwrotne; Tworzenie wywołania zwrotnego; Kolejność wywołań zwrotnych i wyjątki; Podsumowanie; Pytania; Dalsze badania; Podstawy uczenia głębokiego podsumowanie; Część IV. Uczenie głębokie od podstaw: Rozdział 17. Sieć neuronowa od podstaw: Tworzenie od podstaw warstwy sieci neuronowej; Modelowanie neuronu; Mnożenie macierzy od podstaw; Arytmetyka składowych; Rozgłaszanie; Rozgłaszanie wartości skalarnej; Rozgłaszanie wektora na macierz; Zasady rozgłaszania; Konwencja sumacyjna Einsteina; Przejścia w przód i wstecz; Definiowanie i inicjalizowanie warstwy; Gradienty i przejście wstecz; Modyfikowanie modelu; Implementacja przy użyciu biblioteki PyTorch; Podsumowanie; Pytania; Dalsze badania; Rozdział 18. Interpretacja sieci CNN przy użyciu mapy aktywacji klas: Mapa aktywacji klas i punkty zaczepienia; Gradientowa mapa aktywacji klas; Podsumowanie; Pytania; Dalsze badania; Rozdział 19. Klasa Learner biblioteki fastai od podstaw: Dane; Klasa Dataset; Klasy Module i Parameter; Prosta konwolucyjna sieć neuronowa; Funkcja straty; Klasa Learner; Wywołania zwrotne; Harmonogram modyfikowania współczynnika uczenia; Podsumowanie; Pytania; Dalsze badania; Rozdział 20. Uwagi końcowe: Dodatek A. Tworzenie bloga; Blogowanie przy użyciu usługi GitHub Pages; Tworzenie repozytorium; Konfigurowanie strony głównej; Tworzenie wpisów; Synchronizowanie GitHuba z własnym komputerem; Tworzenie bloga za pomocą notatnika Jupytera; Dodatek B. Lista kontrolna projektu dotyczącego danych; Analitycy danych; Strategia; Dane; Analityka; Implementacja; Utrzymywanie; Ograniczenia; O autorach; Podziękowania; Kolofon.
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 004 (2 egz.)
Pozycja została dodana do koszyka. Jeśli nie wiesz, do czego służy koszyk, kliknij tutaj, aby poznać szczegóły.
Nie pokazuj tego więcej