Janusz Jacek
Sortowanie
Źródło opisu
Książki
(3)
Forma i typ
Książki
(3)
Publikacje fachowe
(2)
Dostępność
dostępne
(3)
Placówka
Wypożyczalnia
(3)
Autor
Praca zbiorowa
(159)
Kaczmarczyk Michał (1981- )
(61)
Oleśniewicz Piotr (1968- )
(61)
Radwański Zbigniew (1924-2012)
(57)
Kamińska Aleksandra (1976- )
(54)
Janusz Jacek
(-)
Borski Maciej (1975- )
(50)
Denek Kazimierz (1932-2016)
(48)
Kosikowski Cezary (1942- )
(46)
Świątkowski Andrzej M. (1944- )
(46)
Barcz Jan (1953- )
(45)
Evans Virginia
(40)
Czarnecki Kazimierz M. (1933- )
(39)
Huczek Marian (1939-2023)
(39)
Faliszewska Jolanta
(38)
Fleszer Dorota (1971- )
(37)
Łuczkiewicz Grzegorz
(36)
Barta Janusz (1947-2021)
(35)
Lityński Adam (1940- )
(35)
Wróbel Andrzej (1953- )
(35)
Baran Krzysztof Wojciech
(34)
Borkowski Janusz (1934-2012)
(33)
Chodyński Andrzej
(32)
Gurdek Magdalena (1977- )
(32)
Krawiec Grzegorz (1977- )
(32)
Markiewicz Ryszard (1948- )
(31)
Garlicki Leszek (1946- )
(30)
Marek Andrzej (1940-2012)
(30)
Wierzbowski Marek (1946- )
(30)
Adamiak Barbara (1949- )
(29)
Nowak Edward (1951- )
(29)
Rozmus Dariusz (1961- )
(29)
Niewiadomski Zygmunt (1950- )
(28)
Pawlak Mirosław
(28)
Penc Józef (1939-2017)
(28)
Rogacka-Łukasik Anna (1980- )
(28)
Śliwerski Bogusław (1954- )
(28)
Lewicka Maria
(27)
Radzicki Józef
(27)
Skrzydło Wiesław (1929-2021)
(27)
Wojtaszczyk Konstanty Adam
(27)
Bauman Zygmunt (1925-2017)
(26)
Bieniek Gerard
(26)
Chmaj Marek (1969- )
(26)
Izdebski Hubert (1947- )
(26)
Sadowska-Snarska Cecylia
(26)
Smolarek Małgorzata (1974- )
(26)
Tokarczyk Roman Andrzej (1942- )
(26)
Brodecki Zdzisław
(25)
Florek Ludwik (1946- )
(25)
Hauser Roman (1949- )
(25)
Kozioł Leszek
(25)
Wentkowska Aleksandra
(25)
Grabiec Olimpia (1975- )
(24)
Kołakowski Leszek (1927-2009)
(24)
Szeligiewicz-Urban Danuta (1959- )
(24)
Łaszczyca Grzegorz (1970- )
(24)
Chmielnicki Paweł (1972- )
(23)
Dooley Jenny
(23)
Głuchowski Jan (1940- )
(23)
Hołyst Brunon (1930- )
(23)
Leoński Zbigniew (1929-2006)
(23)
Obara Małgorzata
(23)
Shakespeare William
(23)
Kotler Philip (1931- )
(22)
Kotowski Wojciech (1950- )
(22)
Latham-Koenig Christina
(22)
Ochendowski Eugeniusz (1925-2015)
(22)
Oxenden Clive
(22)
Skowrońska-Bocian Elżbieta (1948- )
(22)
Szczepański Marek S
(22)
Winiarska Kazimiera (1948- )
(22)
Banaszak Bogusław (1955-2018)
(21)
Bielenica Krystyna
(21)
Borkowska Stanisława (1939- )
(21)
Brzeziński Bogumił (1948- )
(21)
Bura Maria
(21)
Dolnicki Bogdan (1956- )
(21)
Kwil Małgorzata
(21)
Majewski Kamil
(21)
Misiorowska Ewa
(21)
Nowicki Marek Antoni
(21)
Petkowicz Helena
(21)
Szewc Andrzej
(21)
Słomczyński Maciej
(21)
Boć Jan (1939-2017)
(20)
Cieślak Zbigniew (1954- )
(20)
Kalisz Anna
(20)
Konieczna Anna
(20)
Matan Andrzej
(20)
Mruk Henryk (1948- )
(20)
Pocztowski Aleksy (1956- )
(20)
Szpor Grażyna
(20)
Tarno Jan Paweł (1951- )
(20)
Łazowski Adam
(20)
Dobrowolska Hanna
(19)
Ehrlich Andrzej
(19)
Gepert Bożena
(19)
Juchnowicz Marta (1948- )
(19)
Kisielnicki Jerzy (1939- )
(19)
Mik Cezary (1964- )
(19)
Rok wydania
2020 - 2024
(3)
Okres powstania dzieła
2001-
(3)
Kraj wydania
Polska
(3)
Język
polski
(3)
Temat
Sztuczna inteligencja
(2)
Deep learning
(1)
Programowanie (informatyka)
(1)
Programy komputerowe
(1)
Python (język programowania)
(1)
Systemy operacyjne sieciowe
(1)
Uczenie się maszyn
(1)
Windows 2019 Server
(1)
Gatunek
Podręcznik
(3)
Dziedzina i ujęcie
Informatyka i technologie informacyjne
(3)
3 wyniki Filtruj
Brak okładki
Książka
W koszyku
Opinie o książce; Wstęp: Dla kogo jest przeznaczona ta książka?; Co musisz wiedzieć?; Czego się nauczysz dzięki tej książce?; Przedmowa; Część I. Uczenie głębokie w praktyce; Rozdział 1. Podróż po świecie uczenia głębokiego: Uczenie głębokie jest dla każdego; Sieci neuronowe krótka historia; Kim jesteśmy?; Jak zdobyć wiedzę o uczeniu głębokim?; Twoje projekty i Twój sposób myślenia; Oprogramowanie: PyTorch, fastai i Jupyter (i dlaczego nie ma to znaczenia); Twój pierwszy model; Uzyskanie dostępu do serwera z procesorem graficznym i możliwością realizowania uczenia głębokiego; Uruchomienie pierwszego notatnika; Co to jest uczenie maszynowe?; Co to jest sieć neuronowa?; Trochę słownictwa związanego z uczeniem głębokim; Ograniczenia związane z uczeniem maszynowym; Jak działa nasz program do rozpoznawania obrazów; Czego nauczył się program do rozpoznawania obrazów?; Systemy do rozpoznawania obrazów mogą radzić sobie z zadaniami innymi niż analiza obrazów; Podsumowanie słownictwa; Uczenie głębokie to nie tylko klasyfikowanie obrazów; Zbiory walidacyjne i testowe; Użycie oceny w definiowaniu zbiorów testowych; Moment, w którym wybierasz swoją własną przygodę; Pytania; Dalsze badania; Rozdział 2. Od modelu do produkcji: Praktyczne zastosowanie uczenia głębokiego; Rozpoczęcie projektu; Stan uczenia głębokiego; Widzenie komputerowe; Dokumenty tekstowe (przetwarzanie języka naturalnego); Łączenie tekstu z obrazami; Dane tabelaryczne; Systemy rekomendacji; Inne typy danych; Metoda układu napędowego; Gromadzenie danych; Od danych do obiektu DataLoaders; Generowanie sztucznych danych; Trenowanie modelu i używanie go do czyszczenia danych; Przekształcanie modelu w aplikację internetową; Korzystanie z modelu do wnioskowania; Tworzenie w notatniku aplikacji na podstawie modelu; Zamień notatnik w prawdziwą aplikację; Wdrażanie aplikacji; Jak uniknąć katastrofy; Nieprzewidziane konsekwencje i pętle sprzężenia zwrotnego; Zapisuj!; Pytania; Dalsze badania; Rozdział 3. Etyka danych: Kluczowe przykłady etyki danych; Błędy i regresja: wadliwy algorytm używany do świadczeń opieki zdrowotnej; Pętle sprzężenia zwrotnego: system rekomendacji YouTube; Uprzedzenie: wykładowca Latanya Sweeney aresztowana; Dlaczego ma to znaczenie?; Integracja uczenia maszynowego z projektowaniem produktu; Zagadnienia związane z etyką danych; Regres i odpowiedzialność; Pętle sprzężenia zwrotnego; Uprzedzenie; Uprzedzenie historyczne; Uprzedzenie pomiarowe; Uprzedzenie agregacyjne; Uprzedzenie reprezentacyjne; Rozwiązywanie problemów związanych z różnymi rodzajami uprzedzeń; Dezinformacja; Identyfikowanie i rozwiązywanie problemów etycznych; Przeanalizuj projekt, nad którym pracujesz; Procesy do zaimplementowania; Pryzmat etyczny; Potęga różnorodności; Uczciwość, odpowiedzialność i przejrzystość; Rola polityki; Skuteczność przepisów; Prawa i polityka; Samochody historyczny precedens; Wnioski; Pytania; Dalsze badania; Uczenie głębokie w praktyce to wszystko!; Część II. Zrozumienie aplikacji fastai: Rozdział 4. Jak to wygląda od środka trenowanie klasyfikatora cyfr: Piksele podstawa widzenia komputerowego; Podejście pierwsze: podobieństwo pikseli; Tablice NumPy i tensory PyTorch; Wyznaczanie wskaźników z wykorzystaniem rozgłaszania; Stochastyczny spadek wzdłuż gradientu; Wyznaczanie gradientów; Stopniowanie ze współczynnikiem uczenia; Kompleksowy przykład użycia stochastycznego spadku wzdłuż gradientu; Etap 1.: inicjalizacja parametrów; Etap 2.: obliczanie prognoz; Etap 3.: obliczanie straty; Etap 4.: obliczanie gradientów; Etap 5.: stopniowanie wag; Etap 6.: powtórzenie procesu; Etap 7.: koniec; Podsumowanie procesu stochastycznego spadku wzdłuż gradientu; Funkcja straty MNIST; Sigmoida; Stochastyczny spadek wzdłuż gradientu i minipaczki; Złożenie wszystkiego w całość; Tworzenie optymalizatora; Wprowadzanie nieliniowości; Bardziej rozbudowane modele; Podsumowanie słownictwa; Pytania; Dalsze badania; Rozdział 5. Klasyfikowanie obrazów: Od psów i kotów do ras zwierząt domowych; Dobór wstępny; Sprawdzanie i debugowanie obiektu DataBlock; Entropia krzyżowa; Przeglądanie aktywacji i etykiet; Softmax; Logarytm prawdopodobieństwa; Obliczanie logarytmu; Interpretacja modelu; Poprawianie modelu; Wyszukiwarka współczynnika uczenia; Odmrażanie i uczenie transferowe; Dyskryminatywne współczynniki uczenia; Wybór liczby epok; Bardziej złożone architektury; Podsumowanie; Pytania; Dalsze badania; Rozdział 6. Inne zagadnienia związane z widzeniem komputerowym: Klasyfikacja wieloetykietowa; Dane; Tworzenie obiektu DataBlock; Binarna entropia krzyżowa; Regresja; Gromadzenie danych; Trenowanie modelu; Podsumowanie; Pytania; Dalsze badania; Rozdział 7. Trenowanie supernowoczesnego modelu: Imagenette; Normalizacja; Progresywna zmiana rozmiaru; Wydłużenie czasu testu; Mixup; Wygładzanie etykiet; Podsumowanie; Pytania; Dalsze badania; Rozdział 8. Szczegółowa analiza filtrowania zespołowego: Pierwszy kontakt z danymi; Czynniki ukryte; Tworzenie obiektu DataLoaders; Filtrowanie zespołowe od podstaw; Wygaszanie wag; Tworzenie własnego modułu osadzania; Interpretacja osadzeń i przesunięć; Użycie aplikacji fastai.collab; Odległość osadzania; Uruchamianie modelu filtrowania zespołowego; Uczenie głębokie w filtrowaniu zespołowym; Podsumowanie; Pytania; Dalsze badania; Rozdział 9. Szczegółowa analiza modelowania tabelarycznego: Osadzenia skategoryzowane; Poza uczeniem głębokim; Zbiór danych; Konkursy Kaggle; Sprawdzenie danych; Drzewa decyzyjne; Obsługa dat; Użycie obiektów TabularPandas i TabularProc; Tworzenie drzewa decyzyjnego; Zmienne skategoryzowane; Lasy losowe; Tworzenie lasu losowego; Błąd out-of-bag; Interpretacja modelu; Wariancja drzewa dla pewności prognozy; Ważności cech; Usuwanie zmiennych o niskiej ważności; Usuwanie zbędnych cech; Częściowa zależność; Wyciek danych; Interpreter drzewa; Ekstrapolacja i sieci neuronowe; Problem ekstrapolacji; Wyszukiwanie danych spoza domeny; Użycie sieci neuronowej; Łączenie w zespoły; Wzmacnianie; Łączenie osadzeń z innymi metodami; Podsumowanie; Pytania; Dalsze badania; Rozdział 10. Szczegółowa analiza przetwarzania języka naturalnego rekurencyjne sieci neuronowe: Wstępne przetwarzanie tekstu; Tokenizacja; Tokenizacja słów przy użyciu biblioteki fastai; Tokenizacja podłańcuchów; Zamiana na liczby przy użyciu biblioteki fastai; Umieszczanie tekstu w paczkach dla modelu językowego; Trenowanie klasyfikatora tekstu; Użycie klasy DataBlock w modelu językowym; Dostrajanie modelu językowego; Zapisywanie i wczytywanie modeli; Generowanie tekstu; Tworzenie klasyfikatora DataLoaders; Dostrajanie klasyfikatora; Dezinformacja i modele językowe; Podsumowanie; Pytania; Dalsze badania; Rozdział 11. Przygotowywanie danych dla modeli za pomocą interfejsu API pośredniego poziomu z biblioteki fastai: Szczegółowa analiza warstwowego interfejsu programistycznego biblioteki fastai; Transformacje; Tworzenie własnej transformacji; Klasa Pipeline potoku transformacji; TfmdLists i Datasets kolekcje przekształcone; TfmdLists; Datasets; Zastosowanie interfejsu API pośredniego poziomu SiamesePair; Podsumowanie; Pytania; Dalsze badania; Zrozumienie aplikacji fastai podsumowanie; Część III. Podstawy uczenia głębokiego: Rozdział 12. Tworzenie od podstaw modelu językowego: Dane; Tworzenie od podstaw pierwszego modelu językowego; Obsługa modelu językowego w bibliotece PyTorch; Pierwsza rekurencyjna sieć neuronowa; Ulepszanie sieci RNN; Obsługa stanu sieci RNN; Tworzenie większej liczby sygnałów; Wielowarstwowe rekurencyjne sieci neuronowe; Model; Eksplodujące lub zanikające aktywacje; Architektura LSTM; Tworzenie modelu LSTM od podstaw; Trenowanie modelu językowego wykorzystującego architekturę LSTM; Regularyzacja modelu LSTM; Dropout; Regularyzacja aktywacji i czasowa regularyzacja aktywacji; Trening regularyzowanego modelu LSTM z wiązanymi wagami; Podsumowanie; Pytania; Dalsze badania; Rozdział 13. Konwolucyjne sieci neuronowe: Magia konwolucji; Odwzorowywanie jądra splotu; Konwolucje w bibliotece PyTorch; Kroki i dopełnienie; Zrozumienie równań konwolucji; Pierwsza konwolucyjna sieć neuronowa; Tworzenie konwolucyjnej sieci neuronowej; Zrozumienie arytmetyki konwolucji; Pola receptywne; Kilka uwag o Twitterze; Obrazy kolorowe; Ulepszanie stabilności trenowania; Prosty model bazowy; Zwiększenie wielkości paczki; Trenowanie jednocykliczne; Normalizacja wsadowa; Podsumowanie; Pytania; Dalsze badania; Rozdział 14. Sieci ResNet: Powrót do Imagenette; Tworzenie nowoczesnej konwolucyjnej sieci neuronowej ResNet; Pomijanie połączeń; Model sieci ResNet na poziomie światowym; Warstwy z wąskim gardłem; Podsumowanie; Pytania; Dalsze badania; Rozdział 15. Szczegółowa analiza architektur aplikacji: Widzenie komputerowe; Funkcja cnn_learner; Funkcja unet_learner; Model syjamski; Przetwarzanie języka naturalnego; Dane tabelaryczne; Podsumowanie; Pytania; Dalsze badania; Rozdział 16. Proces trenowania: Tworzenie modelu bazowego; Ogólny optymalizator; Momentum; RMSProp; Adam; Dwie metody wygaszania wag; Wywołania zwrotne; Tworzenie wywołania zwrotnego; Kolejność wywołań zwrotnych i wyjątki; Podsumowanie; Pytania; Dalsze badania; Podstawy uczenia głębokiego podsumowanie; Część IV. Uczenie głębokie od podstaw: Rozdział 17. Sieć neuronowa od podstaw: Tworzenie od podstaw warstwy sieci neuronowej; Modelowanie neuronu; Mnożenie macierzy od podstaw; Arytmetyka składowych; Rozgłaszanie; Rozgłaszanie wartości skalarnej; Rozgłaszanie wektora na macierz; Zasady rozgłaszania; Konwencja sumacyjna Einsteina; Przejścia w przód i wstecz; Definiowanie i inicjalizowanie warstwy; Gradienty i przejście wstecz; Modyfikowanie modelu; Implementacja przy użyciu biblioteki PyTorch; Podsumowanie; Pytania; Dalsze badania; Rozdział 18. Interpretacja sieci CNN przy użyciu mapy aktywacji klas: Mapa aktywacji klas i punkty zaczepienia; Gradientowa mapa aktywacji klas; Podsumowanie; Pytania; Dalsze badania; Rozdział 19. Klasa Learner biblioteki fastai od podstaw: Dane; Klasa Dataset; Klasy Module i Parameter; Prosta konwolucyjna sieć neuronowa; Funkcja straty; Klasa Learner; Wywołania zwrotne; Harmonogram modyfikowania współczynnika uczenia; Podsumowanie; Pytania; Dalsze badania; Rozdział 20. Uwagi końcowe: Dodatek A. Tworzenie bloga; Blogowanie przy użyciu usługi GitHub Pages; Tworzenie repozytorium; Konfigurowanie strony głównej; Tworzenie wpisów; Synchronizowanie GitHuba z własnym komputerem; Tworzenie bloga za pomocą notatnika Jupytera; Dodatek B. Lista kontrolna projektu dotyczącego danych; Analitycy danych; Strategia; Dane; Analityka; Implementacja; Utrzymywanie; Ograniczenia; O autorach; Podziękowania; Kolofon.
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 004 (2 egz.)
Książka
W koszyku
Rozdział 1. Pierwsze kroki w systemie Windows Server 2019. Cel systemu Windows Server. Robi się pochmurno. Wersje systemu Windows Server i jego licencjonowanie. Przegląd nowych i zaktualizowanych funkcji. Poruszanie się po interfejsie. Korzystanie z nowszego ekranu Settings. Menedżer zadań. Widok zadań. Podsumowanie. Pytania. Rozdział 2. Instalowanie systemu Windows Server 2019 i zarządzanie nim. Wymagania dotyczące instalacji. Instalowanie systemu Windows Server 2019. Instalowanie ról i funkcji. Scentralizowane zarządzanie i monitorowanie. Windows Admin Center (WAC). Umożliwienie szybkiego wdrożenia serwera za pomocą narzędzia Sysprep. Podsumowanie. Pytania. Rozdział 3. Podstawowe usługi infrastrukturalne. Co to jest kontroler domeny? Używanie roli AD DS do zarządzania siecią. Potęga zasad grupy. System nazw domen (DNS). DHCP a adresowanie statyczne. Kopia zapasowa i jej przywracanie. Skróty MMC i MSC. Podsumowanie. Pytania. Rozdział 4. Certyfikaty w systemie Windows Server 2019. Ogólnie używane typy certyfikatów. Planowanie środowiska PKI. Tworzenie nowego szablonu certyfikatu. Wydawanie nowych certyfikatów. Określanie sposobu automatycznej rejestracji certyfikatów. Uzyskanie certyfikatu SSL organu publicznego. Eksportowanie i importowanie certyfikatów. Podsumowanie. Pytania. Rozdział 5. Obsługa sieci w Windows Server 2019. Wprowadzenie do protokołu IPv6. Twoje narzędzia sieciowe. Tworzenie tablicy routingu. Grupowanie kart sieciowych. Programowalna sieć komputerowa. Azure Network Adapter. Podsumowanie. Pytania. Rozdział 6. Użycie opcji zdalnego dostępu. Always On VPN. DirectAccess. Remote Access Management Console. DirectAccess, VPN czy AOVPN? Jakie rozwiązanie jest najlepsze? Web Application Proxy (WAP). Wymagania dla WAP. Najnowsze ulepszenia WAP. Podsumowanie. Pytania. Rozdział 7. Hardening i bezpieczeństwo. Windows Defender Advanced Threat Protection. Zapora systemu Windows Defender - bez żartów. Technologie szyfrowania. Hasła zabronione. Zaawansowana analiza zagrożeń. Najważniejsze wskazówki dotyczące ogólnego bezpieczeństwa. Podsumowanie. Pytania. Rozdział 8. Server Core. Dlaczego warto korzystać z wersji Server Core? Używanie systemu Server Core. Wykorzystanie aplikacji Windows Admin Center do zarządzania systemem Server Core. Narzędzie Sconfig. Role dostępne w wersji Server Core. Co się stało z systemem Nano Server? Podsumowanie. Pytania. Rozdział 9. Redundancja w systemie Windows Server 2019. Równoważenie obciążenia sieciowego. Konfigurowanie strony WWW z równoważeniem obciążenia. Klaster pracy awaryjnej. Poziomy klastrowania. Konfigurowanie klastra pracy awaryjnej. Najnowsze ulepszenia dotyczące klastrowania w systemie Windows Server. Bezpośrednie miejsce do magazynowania. Podsumowanie. Pytania. Rozdział 10. PowerShell. Dlaczego warto używać interfejsu PowerShell? Praca z programem PowerShell. Zintegrowane środowisko skryptowe PowerShell. Zdalne zarządzanie serwerem. Konfiguracja żądanego stanu. Podsumowanie. Pytania. Rozdział 11. Kontenery i Nano Server. Co to są kontenery aplikacji? Kontenery i Nano Server. Kontenery Windows Server a kontenery Hyper-V. Docker i Kubernetes. Używanie kontenerów. Podsumowanie. Pytania. Rozdział 12. Wirtualizacja centrum danych za pomocą hiperwizora Hyper-V. Projektowanie i wdrażanie serwera Hyper-V. Użycie przełączników wirtualnych. Tworzenie nowego przełącznika wirtualnego. Implementacja serwera wirtualnego. Zarządzanie serwerem wirtualnym. Chronione maszyny wirtualne. Integracja z systemem Linux. Deduplikacja w systemie Resilient File System (ReFS). Środowisko Hyper-V Server 2019. Podsumowanie. Pytania. Odpowiedzi na pytania.
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 004 (2 egz.)
Książka
W koszyku
CZĘŚĆ I. Tworzenie modeli. Rozdział 1. Wprowadzenie do biblioteki TensorFlow. Czym jest uczenie maszynowe? Ograniczenia programowania tradycyjnego. Od programowania do uczenia. Czym jest TensorFlow? Użycie platformy TensorFlow. Pierwsze kroki z uczeniem maszynowym. Podsumowanie. Rozdział 2. Wprowadzenie do widzenia komputerowego. Rozpoznawanie elementów odzieży. Neurony widzenia komputerowego. Projektowanie sieci neuronowej. Trenowanie sieci neuronowej. Analiza wyników modelu. Trenowanie przez dłuższy czas nadmierne dopasowanie. Zakończenie trenowania. Podsumowanie. Rozdział 3. Bardziej zaawansowane zagadnienie: wykrywanie cech w obrazach. Konwolucje. Pooling. Implementacja konwolucyjnych sieci neuronowych. Analiza sieci konwolucyjnej. Tworzenie konwolucyjnej sieci neuronowej rozróżniającej konie i ludzi. Generowanie dodatkowych obrazów. Uczenie transferowe. Klasyfikowanie wieloklasowe. Regularyzacja dropout. Podsumowanie. Rozdział 4. Korzystanie za pomocą biblioteki TensorFlow Datasets z publicznie dostępnych zbiorów danych. Pierwsze kroki z TFDS. Użycie biblioteki TFDS z modelami Keras. Użycie funkcji mapowania do generowania sztucznych danych. Korzystanie z niestandardowych podzbiorów. Czym jest TFRecord? Użycie procesu ETL do zarządzania danymi w TensorFlow. Podsumowanie. Rozdział 5. Wprowadzenie do przetwarzania języka naturalnego. Zamiana języka na liczby. Usuwanie słów nieinformatywnych i porządkowanie tekstu. Obsługa realnych źródeł danych. Podsumowanie. Rozdział 6. Programowa analiza emocji za pomocą osadzeń. Ustalanie znaczenia słów. Osadzenia w bibliotece TensorFlow. Wizualizacja osadzeń. Korzystanie ze wstępnie wytrenowanych osadzeń przy użyciu TensorFlow Hub. Podsumowanie. Rozdział 7. Użycie rekurencyjnych sieci neuronowych do przetwarzania języka naturalnego. Podstawy rekurencji. Zastosowanie rekurencji w przetwarzaniu języka naturalnego. Tworzenie klasyfikatora tekstu przy użyciu rekurencyjnych sieci neuronowych. Użycie wstępnie wytrenowanych osadzeń w rekurencyjnych sieciach neuronowych. Podsumowanie. Rozdział 8. Użycie biblioteki TensorFlow do generowania tekstu. Zamiana sekwencji na sekwencje wejściowe. Tworzenie modelu. Generowanie tekstu. Poszerzenie zbioru danych. Zmiana architektury modelu. Ulepszenie danych. Kodowanie oparte na znakach. Podsumowanie. Rozdział 9. Sekwencje i dane szeregów czasowych. Wspólne atrybuty szeregów czasowych. Metody prognozowania szeregów czasowych. Podsumowanie. Rozdział 10. Tworzenie modeli uczenia maszynowego do prognozowania sekwencji. Tworzenie okna zbioru danych. Tworzenie sieci DNN i jej trenowanie w celu dopasowania do danych sekwencji. Ocena wyników działania sieci DNN. Analiza ogólnej prognozy. Dostrajanie współczynnika uczenia. Dostrajanie hiperparametrów za pomocą narzędzia Keras Tuner. Podsumowanie. Rozdział 11. Użycie metod konwolucyjnych i rekurencyjnych w modelowaniu sekwencji. Użycie konwolucji z danymi sekwencyjnymi. Korzystanie z danych pogodowych NASA. Używanie sieci RNN do modelowania sekwencji. Użycie innych metod rekurencyjnych. Użycie dropoutu. Użycie dwukierunkowych sieci RNN. Podsumowanie. CZĘŚĆ II. Używanie modeli. Rozdział 12. Wprowadzenie do TensorFlow Lite. Czym jest TensorFlow Lite? Przykład: utworzenie modelu i przekonwertowanie go do formatu TensorFlow Lite. Przykład: wykorzystanie uczenia transferowego w klasyfikatorze obrazów i jego konwersja na format TensorFlow Lite. Przykład: wykorzystanie uczenia transferowego w klasyfikatorze obrazów. Podsumowanie. Rozdział 13. Użycie TensorFlow Lite w systemie Android. Czym jest Android Studio? Tworzenie pierwszej aplikacji opartej na TensorFlow Lite dla systemu Android. Coś więcej niż Witaj, świecie! przetwarzanie obrazów. Przykładowe aplikacje wykorzystujące bibliotekę TensorFlow Lite. Podsumowanie. Rozdział 14. Użycie TensorFlow Lite w systemie iOS. Tworzenie pierwszej aplikacji TensorFlow Lite za pomocą Xcode. Coś więcej niż Witaj, świecie! przetwarzanie obrazów. Przykładowe aplikacje wykorzystujące bibliotekę TensorFlow Lite. Podsumowanie. Rozdział 15. Wprowadzenie do TensorFlow.js. Czym jest TensorFlow.js? Instalowanie i używanie środowiska programistycznego Brackets. Tworzenie pierwszego modelu wykorzystującego bibliotekę TensorFlow.js. Tworzenie klasyfikatora irysów. Podsumowanie. Rozdział 16. Rozwiązywanie problemów z zakresu widzenia komputerowego za pomocą biblioteki TensorFlow.js. Uwagi dla programistów używających biblioteki TensorFlow dotyczące języka JavaScript. Tworzenie konwolucyjnej sieci neuronowej za pomocą języka JavaScript. Stosowanie wywołań zwrotnych do wizualizacji. Trenowanie za pomocą zbioru MNIST. Przeprowadzanie wnioskowania dla obrazów przy użyciu biblioteki TensorFlow.js. Podsumowanie. Rozdział 17. Konwersja modeli z Pythona do JavaScriptu i ponowne ich użycie. Konwersja modeli z Pythona do JavaScriptu. Użycie wcześniej przekonwertowanych modeli. Podsumowanie. Rozdział 18. Wykorzystanie uczenia transferowego w języku JavaScript. Uczenie transferowe przy użyciu biblioteki MobileNet. Uczenie transferowe przy użyciu repozytorium TensorFlow Hub. Użycie modeli z portalu TensorFlow.org. Podsumowanie. Rozdział 19. Wdrażanie modeli za pomocą usługi TensorFlow Serving. Czym jest TensorFlow Serving? Instalowanie systemu TensorFlow Serving. Tworzenie i udostępnianie modelu. Podsumowanie. Rozdział 20. Sztuczna inteligencja a etyka, uczciwość i prywatność. Uczciwość w procesie programowania. Uczciwość w procesie uczenia maszynowego. Narzędzia związane z kwestiami uczciwości. Uczenie federacyjne. Zasady firmy Google dotyczące sztucznej inteligencji. Podsumowanie. Rysunki.
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 004 (2 egz.)
Pozycja została dodana do koszyka. Jeśli nie wiesz, do czego służy koszyk, kliknij tutaj, aby poznać szczegóły.
Nie pokazuj tego więcej