Form of Work
Książki
(8)
Publikacje fachowe
(6)
Poradniki i przewodniki
(1)
Status
available
(6)
unknown
(2)
only on-site
(1)
Branch
Wypożyczalnia
(8)
Czytelnia
(1)
Author
Sawka Krzysztof
(2)
Walczak Tomasz
(2)
Borkowski Stanisław
(1)
Fenner Mark E
(1)
Grażyński Andrzej
(1)
Géron Aurélien
(1)
Hubisz Jakub
(1)
Hurbans Rishal
(1)
Janusz Jacek
(1)
Mirjalili Vahid
(1)
Moroney Laurence
(1)
Natingga Dávid
(1)
Ponteves Hadelin de
(1)
Raschka Sebastian
(1)
Wójcicki łukasz
(1)
Štofkova Jana
(1)
Year
2020 - 2022
(6)
2010 - 2019
(1)
2000 - 2009
(1)
Time Period of Creation
2001-
(4)
Country
Poland
(8)
Language
Polish
(8)
Subject
Uczenie się maszyn
(7)
Python (język programowania)
(4)
Sztuczna inteligencja
(3)
Algorytmy
(2)
Sieci neuronowe
(2)
Analiza SWOT
(1)
Artykuły gospodarstwa domowego
(1)
Banki
(1)
Banki internetowe
(1)
Biblioteki publiczne
(1)
Ceramika
(1)
Data science
(1)
Deep learning
(1)
Firanki i zasłony
(1)
Jakość
(1)
Języki programowania
(1)
Maszyny
(1)
Nauczanie
(1)
Obsługa klienta
(1)
Pieczywo
(1)
Programowanie (informatyka)
(1)
Programowanie zwinne
(1)
Przędzalnictwo
(1)
Rury
(1)
Statystyka matematyczna
(1)
Służba zdrowia
(1)
Zarządzanie jakością
(1)
Genre/Form
Podręcznik
(5)
Opracowanie
(1)
Poradnik
(1)
Domain
Informatyka i technologie informacyjne
(7)
8 results Filter
No cover
Book
In basket
Algorytmy Data Science : siedmiodniowy przewodnik / Dávid Natingga ; tłum. Andrzej Grażyński. - Wyd. 2. - Gliwice : Helion , cop. 2019. - 206, [2] s. : rys., tab., wykresy, wzory ; 24 cm.
ISBN: 978-83-283-5602-3
Rozdział 1. Klasyfikacja na podstawie najbliższego sąsiedztwa. Subiektywne odczuwanie temperatury. Implementacja algorytmu k najbliższych sąsiadów. Dane wejściowe. Wynik klasyfikacji. Wizualizacja. Mapa Włoch przykład doboru wartości k. Analiza. Skalowanie danych prognozowanie statusu własności. Analiza. Nieeuklidesowe metryki odległości punktów klasyfikowanie tekstów. Analiza. Klasyfikowania tekstów ciąg dalszy wielowymiarowy algorytm k-NN. Analiza. Podsumowanie. Problemy. Subiektywne odczuwanie temperatury. Mapa Włoch przykład doboru wartości k. Status własności. Analiza. Rozdział 2. Naiwny klasyfikator bayesowski. Testy medyczne podstawowe zastosowanie twierdzenia Bayesa. Analiza. Podstawowe twierdzenie Bayesa i jego rozszerzenie. Twierdzenie Bayesa. Dowód. Rozszerzone twierdzenie Bayesa. Dowód. Zagramy w szachy? niezależne zdarzenia warunkujące. Analiza. Implementacja naiwnego klasyfikatora bayesowskiego. Dane wejściowe. Wynik. Zagramy w szachy? częściowo zależne zdarzenia warunkujące. Analiza. Dane wejściowe. Wynik. Chłopak czy dziewczyna? twierdzenie Bayesa dla ciągłych zmiennych losowych. Analiza. Podsumowanie. Problemy. Analiza. Rozdział 3. Drzewa decyzyjne. Pływamy? reprezentowanie danych w postaci drzewa decyzyjnego. Elementy teorii informacji. Entropia informacyjna. Przykład losowe rzucanie monetą. Definicja. Zysk informacyjny. Pływamy? obliczanie zysku informacyjnego. Algorytm ID3 konstruowanie drzewa decyzyjnego. Pływamy? budowanie drzewa decyzyjnego. Implementacja w języku Python. Dane wejściowe. Wynik. Klasyfikowanie danych za pomocą drzew decyzyjnych. Przykład pływamy czy nie? Przykład gra w szachy pod chmurką. Analiza. Dane wejściowe. Wynikowe drzewo decyzyjne. Klasyfikacja. Na zakupy przykład niespójnych danych. Analiza. Podsumowanie. Problemy. Analiza. Rozdział 4. Lasy losowe. Ogólne zasady konstruowania lasów losowych. Pływamy? klasyfikacja za pomocą lasu losowego. Analiza. Konstruowanie lasu losowego. Losowe drzewo decyzyjne nr 0. Losowe drzewo decyzyjne nr 1. Wynikowy las losowy. Klasyfikowanie cechy na podstawie lasu losowego. Implementacja algorytmu konstruowania lasu losowego. Dane wejściowe. Wynik. Przykład zagramy w szachy? Analiza. Konstruowanie lasu losowego. Losowe drzewo decyzyjne nr 0. Losowe drzewa decyzyjne nr 1, 2 i 3. Wynikowy las losowy. Klasyfikacja w drodze głosowania. Dane wejściowe. Wynik. Idziemy na zakupy? wnioskowanie z niespójnych danych i miara wiarygodności wyniku. Analiza. Dane wejściowe. Wynik. Podsumowanie. Problemy. Analiza. Dane wejściowe. Wynik. Rozdział 5. Klasteryzacja. Dochód gospodarstwa domowego niski czy wysoki? Algorytm k-średnich. Początkowy zbiór centroidów. Wyznaczanie centroidu klastera. Przykład wykorzystanie algorytmu k-średnich do klasyfikacji dochodów. Klasyfikowanie przez klasteryzację prognozowanie płci nieznanej osoby. Analiza. Implementacja algorytmu k-średnich. Dane wejściowe. Wynik grupowania. Status własności dobór optymalnej liczby klasterów. Analiza. Dane wejściowe. Wynik podział między dwa klastery. Wynik podział między trzy klastery. Wynik podział między cztery klastery. Wynik podział między pięć klasterów. Klasyfikowanie dokumentów semantyczne znaczenie klasteryzacji. Analiza. Dane wejściowe. Wynik podział między dwa klastery. Wynik podział między trzy klastery. Wynik podział między pięć klasterów. Podsumowanie. Problemy. Analiza. Dane wejściowe. Dwa klastery. Trzy klastery. Cztery klastery. Pięć klasterów. Wybór optymalnej liczby klasterów przy użyciu walidacji krzyżowej. Rozdział 6. Analiza regresji. Konwersja temperatur regresja liniowa dla danych doskonałych. Rozwiązanie analityczne. Metoda najmniejszych kwadratów w regresji liniowej. Implementacja analizy regresji liniowej w Pythonie. Kod programu. Wynik. Wizualizacja. Regresja dla danych pomiarowych prognozowanie wagi na podstawie wzrostu. Analiza. Kod programu. Wynik. Metoda spadku gradientowego i jej implementacja. Szczegóły algorytmu. Implementacja w Pythonie. Dane wejściowe. Wynik. Wizualizacja porównanie z metodą analityczną. Przewidywanie czasu przelotu na podstawie odległości. Analiza. Kod programu. Wynik. Obliczenia balistyczne model nieliniowy. Analiza. Kod programu. Wynik. Podsumowanie. Problemy. Analiza. Kod programu. Wynik. Wizualizacja. Rozdział 7. Analiza szeregów czasowych. Zysk w biznesie analiza trendu. Analiza. Kod programu. Wynik. Wizualizacja. Konkluzja. Sprzedaż w sklepie internetowym analiza sezonowości. Analiza. Analiza trendu. Kod programu. Wynik. Wizualizacja. Analiza sezonowości. Wizualizacja. Podsumowanie. Problemy. Analiza. Kod programu. Wynik. Wizualizacja. Dodatek A Podstawy języka Python. Przykład. Komentarze. Typy danych. Int. Przykład example02_int.py. Wynik. Float. Przykład example03_float.py. Wynik. Napis. Przykład example04_string.py. Wynik. Krotka. Przykład example05_tuple.py. Wynik. Lista. Przykład example06_list.py. Wynik. Zbiór. Przykład example07_set.py. Wynik. Słownik. Przykład example08_dictionary.py. Wynik. Przepływ sterowania. Instrukcje warunkowe. Przykład example09_if_else_elif.py. Wynik. Pętla for. Przykład example10_for_loop_range.py. Wynik. Przykład example11_for_loop_list.py. Wynik. Przykład example12_for_loop_set.py. Wynik. Pętla while. Przykład example13_while_loop.py. Wynik. Instrukcje break i continue. Przykład example14_break_continue.py. Wynik. Funkcje. Przykład example15_function.py. Wynik. Wejście-wyjście programu. Argumenty wywołania programu. Przykład example16_arguments.py. Wynik. Operacje na plikach. Dodatek B. Statystyka. Podstawowe koncepcje. Notacja. Podstawowe pojęcia. Wnioskowanie bayesowskie. Rozkład normalny Gaussa. Walidacja krzyżowa. Testowanie A/B. Dodatek C. Słownik pojęć, algorytmów i metod Data Science.
This item is available in one branch. Expand information to see details.
Wypożyczalnia
There are copies available to loan: sygn. 004 (2 egz.)
Book
In basket
Algorytmy sztucznej inteligencji : ilustrowany przewodnik / Rishal Hurbans ; przekład: Tomasz Walczak - Gliwice : Helion , cop. 2021. - XXIII, [1], 335 s. : il., wykresy ; 23 cm.
ISBN: 978-83-283-7507-9
1. Intuicyjne omówienie sztucznej inteligencji Czym jest sztuczna inteligencja? Krótka historia sztucznej inteligencji. Rodzaje problemów i modele ich rozwiązywania. Intuicyjne omówienie zagadnień z obszaru sztucznej inteligencji. Zastosowania algorytmów sztucznej inteligencji. 2. Podstawy przeszukiwania. Czym jest planowanie i przeszukiwanie? Koszt obliczeń - powód stosowania inteligentnych algorytmów. Jakie problemy można rozwiązywać za pomocą algorytmów przeszukiwania? Reprezentowanie stanu - tworzenie platformy do reprezentowania przestrzeni problemowej i rozwiązań. Przeszukiwanie siłowe - szukanie rozwiązań po omacku. Przeszukiwanie wszerz - najpierw wszerz, potem w głąb. Przeszukiwanie w głąb - najpierw w głąb, potem wszerz. Zastosowania siłowych algorytmów przeszukiwania. Opcjonalne informacje - rodzaje grafów. Opcjonalne informacje - inne sposoby reprezentowania grafów. 3. Inteligentne przeszukiwanie. Definiowanie heurystyk - projektowanie hipotez opartych na wiedzy. Przeszukiwanie sterowane - szukanie rozwiązań z wykorzystaniem wskazówek. Przeszukiwanie antagonistyczne - szukanie rozwiązań w zmiennym środowisku. 4. Algorytmy ewolucyjne. Czym jest ewolucja? Problemy, jakie można rozwiązywać za pomocą algorytmów ewolucyjnych. Algorytm genetyczny - cykl życia. Kodowanie przestrzeni rozwiązań. Tworzenie populacji rozwiązań. Pomiar przystosowania osobników w populacji. Wybór rodziców na podstawie przystosowania. Generowanie osobników na podstawie rodziców. Tworzenie populacji następnego pokolenia. Konfigurowanie parametrów algorytmu genetycznego. Zastosowania algorytmów ewolucyjnych. 5. Zaawansowane techniki ewolucyjne. Cykl życia algorytmu ewolucyjnego. Różne strategie selekcji. Kodowanie z użyciem liczb rzeczywistych. Kodowanie porządkowe - korzystanie z sekwencji. Kodowanie za pomocą drzewa - praca z hierarchiami. Często spotykane rodzaje algorytmów ewolucyjnych. Słowniczek pojęć związanych z algorytmami ewolucyjnymi. Inne zastosowania algorytmów ewolucyjnych. 6. Inteligencja rozproszona: mrówki. Czym jest inteligencja rozproszona? Problemy dostosowane do algorytmu mrówkowego. Reprezentowanie stanu - jak zapisać ścieżki i mrówki? Cykl życia algorytmu mrówkowego. Zastosowania algorytmu mrówkowego. 7. Inteligencja rozproszona: cząstki. Na czym polega optymalizacja rojem cząstek? Problemy optymalizacyjne - bardziej techniczne spojrzenie. Problemy, jakie można rozwiązać za pomocą optymalizacji rojem cząstek. Reprezentowanie problemu - jak wyglądają cząstki? Przebieg działania algorytmu optymalizacji rojem cząstek. Zastosowania algorytmów optymalizacji rojem cząstek. 8. Uczenie maszynowe. Czym jest uczenie maszynowe? Problemy, jakie można rozwiązywać za pomocą uczenia maszynowego. Przebieg uczenia maszynowego. Klasyfikowanie z użyciem drzew decyzyjnych. Inne popularne algorytmy uczenia maszynowego. Zastosowania algorytmów uczenia maszynowego. 9. Sztuczne sieci neuronowe. Czym są sztuczne sieci neuronowe? Perceptron: reprezentacja neuronu. Definiowanie sieci ANN. Propagacja w przód - używanie wyuczonej sieci ANN. Propagacja wsteczna - uczenie sieci ANN. Możliwe funkcje aktywacji. Projektowanie sztucznych sieci neuronowych. Typy i zastosowania sieci ANN. 10. Uczenie przez wzmacnianie z użyciem algorytmu Q-learning. Czym jest uczenie przez wzmacnianie? Problemy rozwiązywane za pomocą uczenia przez wzmacnianie. Przebieg uczenia przez wzmacnianie. Deep learning w uczeniu przez wzmacnianie. Zastosowania uczenia przez wzmacnianie.
This item is available in one branch. Expand information to see details.
Wypożyczalnia
There are copies available to loan: sygn. 004 (2 egz.)
No cover
Book
In basket
ISBN: 978-83-89275-33-2
1. Zarządzanie produkcją i jakością w branży meblarskiej, 2. Identyfikacja obszarów powstawania niezgodności emaliowanych wyrobów sprzętu gospodarstwa domowego, 3. Jakość pieczywa z zautomatyzowanej piekarni, 4. Struktura niezgodności drutów i ocena nowoczesności wykorzystania maszyn, 5. Determinanty jakości profilowania rur, 6. Proces produkcyjny i struktura niezgodności firan/serwet, 7. Zasoby ludzkie i koszty produkcji w przędzalni, 8. Determinanty jakości folii i nowoczesność wykorzystanych maszyn do jej produkcji, 9. Model jakości wirtualnych usług bankowych, 10. Jakość obsługi klienta w urzędzie miejskim, 11. Jakość usług medycznych w szpitalu powiatowym, 12. Determinanty jakości wyrobów ceramicznych, 13. Jakość produktów wytwarzanych w zakładzie pracy chronionej dla przemysłu elektrotechnicznego, 14. Wyniki analizy SWOT podstawą utworzenia specjalistycznej firmy, 15. Jakość organizacji czasu pozaszkolnego a koszty utrzymania specjalistycznego ośrodka, 16. Problem jakości w czystszej produkcji, 17. Jakość usług w miejskiej bibliotece publicznej, 18. Lean Banking, 19. Jakość nauczania w szkole podstawowej
This item is available in 2 branches. Expand the list to see details.
Wypożyczalnia
There are copies available to loan: sygn. 658.1/.5 (2 egz.)
Czytelnia
Copies are only available in the library: sygn. 658.1/.5 (1 egz.)
No cover
Book
In basket
This item is available in one branch. Expand information to see details.
Wypożyczalnia
Brak informacji o dostępności: sygn. 004
Book
In basket
ISBN: 978-83-283-7478-2
Rozdział 1. Witamy w świecie robotów. Rozpoczęcie przygody z AI. Cztery różne modele AI. Dokąd może Cię zaprowadzić nauka AI? Podsumowanie. Rozdział 2. Poznaj narzędzia AI. Strona GitHuba. Colaboratory. Podsumowanie. Rozdział 3. Podstawy języka Python - naucz się kodować w Pythonie. Wyświetlanie tekstu. Zmienne i operacje. Listy i tablice. Instrukcje warunkowe if. Pętle for i while. Funkcje. Klasy i obiekty. Podsumowanie. Rozdział 4. Podstawowe techniki AI. Co to jest uczenie ze wzmacnianiem? Pięć zasad Reinforcement Learning. Podsumowanie. Rozdział 5. Twój pierwszy model AI - uważaj na bandytów! Problem wielorękiego bandyty. Model próbkowania Thompsona. Podsumowanie. Rozdział 6. AI w sprzedaży i reklamie - sprzedawaj jak Wilk z AI Street. Problem do rozwiązania. Budowanie środowiska do przeprowadzenia symulacji. Rozwiązanie AI i odświeżenie umysłu. Implementacja. Podsumowanie. Rozdział 7. Witamy w Q-learningu. Labirynt. Cały proces Q-learningu. Podsumowanie. Rozdział 8. AI w logistyce - roboty w magazynie. Budowanie środowiska. Implementacja. Podsumowanie. Rozdział 9. Zostań ekspertem od sztucznego mózgu - głębokie Q-learning. Przewidywanie cen domów. Teoria głębokiego uczenia. Jak działają sieci neuronowe? Głębokie uczenie. Podsumowanie. Rozdział 10. Sztuczna inteligencja dla pojazdów autonomicznych - zbuduj samochód samojezdny. Budowanie środowiska. Przypomnienie rozwiązania AI. Implementacja. Prezentacja. Podsumowanie. Rozdział 11. AI dla biznesu - minimalizuj koszty dzięki głębokiemu Q-learningowi. Problem do rozwiązania. Budowanie środowiska. Rozwiązanie AI. Demo. Podsumowanie - ogólny schemat AI. Podsumowanie. Rozdział 12. Głębokie konwolucyjne Q-learning. Do czego służą sieci CNN? Jak działają CNN? Głębokie konwolucyjne Q-learning. Podsumowanie. Rozdział 13. AI dla gier wideo - zostań mistrzem Snake'a. Problem do rozwiązania. Tworzenie środowiska. Rozwiązanie AI. Implementacja. Demo. Podsumowanie. Rozdział 14. Podsumowanie. Podsumowanie - ogólny schemat AI. Odkrywanie, co czeka Cię dalej w AI.
This item is available in one branch. Expand information to see details.
Wypożyczalnia
There are copies available to loan: sygn. 004 (2 egz.)
No cover
Book
In basket
ISBN: 978-83-283-7850-6
CZĘŚĆ I. Tworzenie modeli. Rozdział 1. Wprowadzenie do biblioteki TensorFlow. Czym jest uczenie maszynowe? Ograniczenia programowania tradycyjnego. Od programowania do uczenia. Czym jest TensorFlow? Użycie platformy TensorFlow. Pierwsze kroki z uczeniem maszynowym. Podsumowanie. Rozdział 2. Wprowadzenie do widzenia komputerowego. Rozpoznawanie elementów odzieży. Neurony widzenia komputerowego. Projektowanie sieci neuronowej. Trenowanie sieci neuronowej. Analiza wyników modelu. Trenowanie przez dłuższy czas nadmierne dopasowanie. Zakończenie trenowania. Podsumowanie. Rozdział 3. Bardziej zaawansowane zagadnienie: wykrywanie cech w obrazach. Konwolucje. Pooling. Implementacja konwolucyjnych sieci neuronowych. Analiza sieci konwolucyjnej. Tworzenie konwolucyjnej sieci neuronowej rozróżniającej konie i ludzi. Generowanie dodatkowych obrazów. Uczenie transferowe. Klasyfikowanie wieloklasowe. Regularyzacja dropout. Podsumowanie. Rozdział 4. Korzystanie za pomocą biblioteki TensorFlow Datasets z publicznie dostępnych zbiorów danych. Pierwsze kroki z TFDS. Użycie biblioteki TFDS z modelami Keras. Użycie funkcji mapowania do generowania sztucznych danych. Korzystanie z niestandardowych podzbiorów. Czym jest TFRecord? Użycie procesu ETL do zarządzania danymi w TensorFlow. Podsumowanie. Rozdział 5. Wprowadzenie do przetwarzania języka naturalnego. Zamiana języka na liczby. Usuwanie słów nieinformatywnych i porządkowanie tekstu. Obsługa realnych źródeł danych. Podsumowanie. Rozdział 6. Programowa analiza emocji za pomocą osadzeń. Ustalanie znaczenia słów. Osadzenia w bibliotece TensorFlow. Wizualizacja osadzeń. Korzystanie ze wstępnie wytrenowanych osadzeń przy użyciu TensorFlow Hub. Podsumowanie. Rozdział 7. Użycie rekurencyjnych sieci neuronowych do przetwarzania języka naturalnego. Podstawy rekurencji. Zastosowanie rekurencji w przetwarzaniu języka naturalnego. Tworzenie klasyfikatora tekstu przy użyciu rekurencyjnych sieci neuronowych. Użycie wstępnie wytrenowanych osadzeń w rekurencyjnych sieciach neuronowych. Podsumowanie. Rozdział 8. Użycie biblioteki TensorFlow do generowania tekstu. Zamiana sekwencji na sekwencje wejściowe. Tworzenie modelu. Generowanie tekstu. Poszerzenie zbioru danych. Zmiana architektury modelu. Ulepszenie danych. Kodowanie oparte na znakach. Podsumowanie. Rozdział 9. Sekwencje i dane szeregów czasowych. Wspólne atrybuty szeregów czasowych. Metody prognozowania szeregów czasowych. Podsumowanie. Rozdział 10. Tworzenie modeli uczenia maszynowego do prognozowania sekwencji. Tworzenie okna zbioru danych. Tworzenie sieci DNN i jej trenowanie w celu dopasowania do danych sekwencji. Ocena wyników działania sieci DNN. Analiza ogólnej prognozy. Dostrajanie współczynnika uczenia. Dostrajanie hiperparametrów za pomocą narzędzia Keras Tuner. Podsumowanie. Rozdział 11. Użycie metod konwolucyjnych i rekurencyjnych w modelowaniu sekwencji. Użycie konwolucji z danymi sekwencyjnymi. Korzystanie z danych pogodowych NASA. Używanie sieci RNN do modelowania sekwencji. Użycie innych metod rekurencyjnych. Użycie dropoutu. Użycie dwukierunkowych sieci RNN. Podsumowanie. CZĘŚĆ II. Używanie modeli. Rozdział 12. Wprowadzenie do TensorFlow Lite. Czym jest TensorFlow Lite? Przykład: utworzenie modelu i przekonwertowanie go do formatu TensorFlow Lite. Przykład: wykorzystanie uczenia transferowego w klasyfikatorze obrazów i jego konwersja na format TensorFlow Lite. Przykład: wykorzystanie uczenia transferowego w klasyfikatorze obrazów. Podsumowanie. Rozdział 13. Użycie TensorFlow Lite w systemie Android. Czym jest Android Studio? Tworzenie pierwszej aplikacji opartej na TensorFlow Lite dla systemu Android. Coś więcej niż Witaj, świecie! przetwarzanie obrazów. Przykładowe aplikacje wykorzystujące bibliotekę TensorFlow Lite. Podsumowanie. Rozdział 14. Użycie TensorFlow Lite w systemie iOS. Tworzenie pierwszej aplikacji TensorFlow Lite za pomocą Xcode. Coś więcej niż Witaj, świecie! przetwarzanie obrazów. Przykładowe aplikacje wykorzystujące bibliotekę TensorFlow Lite. Podsumowanie. Rozdział 15. Wprowadzenie do TensorFlow.js. Czym jest TensorFlow.js? Instalowanie i używanie środowiska programistycznego Brackets. Tworzenie pierwszego modelu wykorzystującego bibliotekę TensorFlow.js. Tworzenie klasyfikatora irysów. Podsumowanie. Rozdział 16. Rozwiązywanie problemów z zakresu widzenia komputerowego za pomocą biblioteki TensorFlow.js. Uwagi dla programistów używających biblioteki TensorFlow dotyczące języka JavaScript. Tworzenie konwolucyjnej sieci neuronowej za pomocą języka JavaScript. Stosowanie wywołań zwrotnych do wizualizacji. Trenowanie za pomocą zbioru MNIST. Przeprowadzanie wnioskowania dla obrazów przy użyciu biblioteki TensorFlow.js. Podsumowanie. Rozdział 17. Konwersja modeli z Pythona do JavaScriptu i ponowne ich użycie. Konwersja modeli z Pythona do JavaScriptu. Użycie wcześniej przekonwertowanych modeli. Podsumowanie. Rozdział 18. Wykorzystanie uczenia transferowego w języku JavaScript. Uczenie transferowe przy użyciu biblioteki MobileNet. Uczenie transferowe przy użyciu repozytorium TensorFlow Hub. Użycie modeli z portalu TensorFlow.org. Podsumowanie. Rozdział 19. Wdrażanie modeli za pomocą usługi TensorFlow Serving. Czym jest TensorFlow Serving? Instalowanie systemu TensorFlow Serving. Tworzenie i udostępnianie modelu. Podsumowanie. Rozdział 20. Sztuczna inteligencja a etyka, uczciwość i prywatność. Uczciwość w procesie programowania. Uczciwość w procesie uczenia maszynowego. Narzędzia związane z kwestiami uczciwości. Uczenie federacyjne. Zasady firmy Google dotyczące sztucznej inteligencji. Podsumowanie. Rysunki.
This item is available in one branch. Expand information to see details.
Wypożyczalnia
There are copies available to loan: sygn. 004 (2 egz.)
Book
In basket
ISBN: 978-83-283-6425-7
CZĘŚĆ I. PIERWSZE KROKI. Rozdział 1. Podyskutujmy o uczeniu się. 1.1. Witaj. 1.2. Zakres, terminologia, predykcja i dane. 1.3. Rola maszyny w uczeniu maszynowym. 1.4. Przykład systemów uczących się. 1.5. Ocena systemów uczących się. 1.6. Proces budowania systemów uczących się. 1.7. Założenia i realia uczenia się. 1.8. Zakończenie rozdziału. Rozdział 2. Kontekst techniczny. 2.1. O naszej konfiguracji. 2.2. Potrzeba posiadania języka matematycznego. 2.3. Nasze oprogramowanie do zmierzenia się z uczeniem maszynowym. 2.4. Prawdopodobieństwo. 2.5. Kombinacje liniowe, sumy ważone i iloczyny skalarne. 2.6. Perspektywa geometryczna: punkty w przestrzeni. 2.7. Notacja sztuczki plus jeden. 2.8. Odjazd, zrywanie kaftana bezpieczeństwa i nieliniowość. 2.9. NumPy kontra "cała matematyka". 2.10. Problemy z wartościami zmiennoprzecinkowymi. 2.11. Zakończenie rozdziału. Rozdział 3. Predykcja kategorii - początki klasyfikacji. 3.1. Zadania klasyfikacji. 3.2. Prosty zestaw danych do klasyfikacji. 3.3. Trenowanie i testowanie: nie ucz się do testu. 3.4. Ocena - wystawienie stopni. 3.5. Prosty klasyfikator nr 1: najbliżsi sąsiedzi, związki na odległość i założenia. 3.6. Prosty klasyfikator nr 2: naiwny klasyfikator bayesowski, prawdopodobieństwo i złamane obietnice. 3.7. Uproszczona ocena klasyfikatorów. 3.8. Koniec rozdziału. Rozdział 4. Predykcja wartości numerycznych: początki regresji. 4.1. Prosty zbiór danych dla regresji. 4.2. Regresja z najbliższymi sąsiadami i statystyki sumaryczne. 4.3. Błędy regresji liniowej. 4.4. Optymalizacja - wybór najlepszej odpowiedzi. 4.5. Prosta ocena i porównanie regresorów. 4.6. Zakończenie rozdziału. CZĘŚĆ II. OCENA. Rozdział 5. Ocena i porównywanie metod uczenia się. 5.1. Ocena i dlaczego mniej znaczy więcej. 5.2. Terminologia dla faz uczenia się. 5.3. Majorze Tom, coś jest nie tak - nadmierne dopasowanie i niedopasowanie. 5.4. Od błędów do kosztów. 5.5. (Powtórne) próbkowanie - zamienić mniej w więcej. 5.6. Rozbicie: dekonstrukcja błędu na błąd systematyczny i wariancję. 5.7. Ocena graficzna i porównanie. 5.8. Porównywanie metod uczących się za pomocą walidacji krzyżowej. 5.9. Koniec rozdziału. Rozdział 6. Ocena klasyfikatorów. 6.1. Klasyfikatory bazowe. 6.2. Więcej niż dokładność - wskaźniki dla klasyfikacji. 6.3. Krzywe ROC. 6.4. Inne podejście dla wielu klas: jeden-kontra-jeden. 6.5. Krzywe precyzji i skuteczności wyszukiwania. 6.6. Krzywe kumulacyjnej odpowiedzi i wzniesienia. 6.7. Bardziej wyrafinowana ocena klasyfikatorów - podejście drugie. 6.8. Koniec rozdziału. Rozdział 7. Ocena metod regresji. 7.1. Metody regresji będące punktem odniesienia. 7.2. Dodatkowe miary w metodach regresji. 7.3. Wykresy składników resztowych. 7.4. Pierwsze podejście do standaryzacji. 7.5. Ocena mechanizmów regresji w bardziej zaawansowany sposób: podejście drugie. 7.6. Koniec rozdziału. CZĘŚĆ III. JESZCZE O METODACH I PODSTAWACH. Rozdział 8. Inne metody klasyfikacji. 8.1. Jeszcze o klasyfikacji. 8.2. Drzewa decyzyjne. 8.3. Klasyfikatory oparte na wektorach nośnych. 8.4. Regresja logistyczna. 8.5. Analiza dyskryminacyjna. 8.6. Założenia, obciążenie i klasyfikatory. 8.7. Porównanie klasyfikatorów: podejście trzecie. 8.8. Koniec rozdziału. Rozdział 9. Inne metody regresji. 9.1. Regresja liniowa na ławce kar – regularyzacja. 9.2. Regresja z użyciem wektorów nośnych. 9.3. Regresja segmentowa ze stałymi. 9.4. Drzewa regresyjne. 9.5. Porównanie metod regresji: podejście trzecie. 9.6. Koniec rozdziału. Rozdział 10. Ręczna inżynieria cech - manipulowanie danymi dla zabawy i dla zysku. 10.1. Terminologia i przyczyny stosowania inżynierii cech. 10.2. Wybieranie cech i redukcja danych - pozbywanie się śmieci. 10.3. Skalowanie cech. 10.4. Dyskretyzacja. 10.5. Kodowanie kategorii. 10.6. Relacje i interakcje. 10.7. Manipulowanie wartościami docelowymi. 10.8. Koniec rozdziału. Rozdział 11. Dopracowywanie hiperparametrów i potoki. 11.1. Modele, parametry i hiperparametry. 11.2. Dostrajanie hiperparametrów. 11.3. Wyprawa w rekurencyjną króliczą norę - zagnieżdżony sprawdzian krzyżowy. 11.4. Potoki. 11.5. Potoki i dostrajanie całego procesu. 11.6. Koniec rozdziału. CZĘŚĆ IV. ZWIĘKSZANIE ZŁOŻONOŚCI. Rozdział 12. Łączenie mechanizmów uczących się. 12.1. Zespoły. 12.2. Zespoły głosujące. 12.3. Bagging i lasy losowe. 12.4. Boosting. 12.5. Porównywanie metod opartych na zespołach drzew. 12.6. Koniec rozdziału. Rozdział 13. Modele z automatyczną inżynierią cech. 13.1. Wybieranie cech. 13.2. Tworzenie cech za pomocą jąder. 13.3. Analiza głównych składowych - technika nienadzorowana. 13.4. Koniec rozdziału. Rozdział 14. Inżynieria cech dla dziedzin - uczenie specyficzne dla dziedziny. 14.1. Praca z tekstem. 14.2. Klastrowanie. 14.3. Praca z obrazami. 14.4. Koniec rozdziału. Rozdział 15. Powiązania, rozwinięcia i kierunki dalszego rozwoju. 15.1. Optymalizacja. 15.2. Regresja liniowa z prostych składników. 15.3. Regresja logistyczna z prostych składników. 15.4. Maszyna SVM z prostych składników. 15.5. Sieci neuronowe. 15.6. Probabilistyczne modele grafowe. 15.7. Koniec rozdziału. Dodatek A. Kod z pliku mlwpy.py.
This item is available in one branch. Expand information to see details.
Wypożyczalnia
Brak informacji o dostępności: sygn. 004
Book
In basket
Uczenie maszynowe z użyciem Scikit-Learn i TensorFlow / Aurélien Géron ; tłum. Krzysztof Sawka. - Wydanie 2 - aktualizacja do modułu TensorFlow 2. - Gliwice : Helion S.A. , cop. 2020. - 764, [4] s. : rys., wykresy, wzory ;
ISBN: 978-83-283-6002-0
CZĘŚĆ I. PODSTAWY UCZENIA MASZYNOWEGO. 1. Krajobraz uczenia maszynowego. Czym jest uczenie maszynowe? Dlaczego warto korzystać z uczenia maszynowego? Przykładowe zastosowania. Rodzaje systemów uczenia maszynowego. Główne problemy uczenia maszynowego. Testowanie i ocenianie. Ćwiczenia. 2. Nasz pierwszy projekt uczenia maszynowego. Praca z rzeczywistymi danymi. Przeanalizuj całokształt projektu. Zdobądź dane. Odkrywaj i wizualizuj dane, aby zdobywać nowe informacje. Przygotuj dane pod algorytmy uczenia maszynowego. Wybór i uczenie modelu. Wyreguluj swój model. Uruchom, monitoruj i utrzymuj swój system. Teraz Twoja kolej! Ćwiczenia. 3. Klasyfikacja. Zbiór danych MNIST. Uczenie klasyfikatora binarnego. Miary wydajności. Klasyfikacja wieloklasowa. Analiza błędów. Klasyfikacja wieloetykietowa. Klasyfikacja wielowyjściowa. Ćwiczenia. 4. Uczenie modeli. Regresja liniowa. Gradient prosty. Regresja wielomianowa. Krzywe uczenia. Regularyzowane modele liniowe. Regresja logistyczna. Ćwiczenia. 5. Maszyny wektorów nośnych. Liniowa klasyfikacja SVM. Nieliniowa klasyfikacja SVM. Regresja SVM. Mechanizm działania. Ćwiczenia. 6. Drzewa decyzyjne. Uczenie i wizualizowanie drzewa decyzyjnego. Wyliczanie prognoz. Szacowanie prawdopodobieństw przynależności do klas. Algorytm uczący CART. Złożoność obliczeniowa. Wskaźnik Giniego czy entropia? Hiperparametry regularyzacyjne. Regresja. Niestabilność. Ćwiczenia. 7. Uczenie zespołowe i losowe lasy. Klasyfikatory głosujące. Agregacja i wklejanie. Rejony losowe i podprzestrzenie losowe. Losowe lasy. Wzmacnianie. Kontaminacja. Ćwiczenia. 8. Redukcja wymiarowości. Klątwa wymiarowości. Główne strategie redukcji wymiarowości. Analiza PCA. Jądrowa analiza PCA. Algorytm LLE. Inne techniki redukowania wymiarowości. Ćwiczenia. 9. Techniki uczenia nienadzorowanego. Analiza skupień. Mieszaniny gaussowskie. Ćwiczenia. CZĘŚĆ II. SIECI NEURONOWE I UCZENIE GŁĘBOKIE. 10. Wprowadzenie do sztucznych sieci neuronowych i ich implementacji z użyciem interfejsu Keras. Od biologicznych do sztucznych neuronów. Implementowanie perceptronów wielowarstwowych za pomocą interfejsu Keras. Dostrajanie hiperparametrów sieci neuronowej. Ćwiczenia. 11. Uczenie głębokich sieci neuronowych. Problemy zanikających/eksplodujących gradientów. Wielokrotne stosowanie gotowych warstw. Szybsze optymalizatory. Regularyzacja jako sposób zapobiegania przetrenowaniu. Podsumowanie i praktyczne wskazówki. Ćwiczenia. 12. Modele niestandardowe i uczenie za pomocą modułu TensorFlow. Krótkie omówienie modułu TensorFlow. Korzystanie z modułu TensorFlow jak z biblioteki NumPy. Dostosowywanie modeli i algorytmów uczenia. Funkcje i grafy modułu TensorFlow. Ćwiczenia. 13. Wczytywanie i wstępne przetwarzanie danych za pomocą modułu TensorFlow. Interfejs danych. Format TFRecord. Wstępne przetwarzanie cech wejściowych. TF Transform. Projekt TensorFlow Datasets (TFDS). Ćwiczenia. 14. Głębokie widzenie komputerowe za pomocą splotowych sieci neuronowych. Struktura kory wzrokowej. Warstwy splotowe. Warstwa łącząca. Architektury splotowych sieci neuronowych. Implementacja sieci ResNet-34 za pomocą interfejsu Keras. Korzystanie z gotowych modeli w interfejsie Keras. Gotowe modele w uczeniu transferowym. Klasyfikowanie i lokalizowanie. Wykrywanie obiektów. Segmentacja semantyczna. Ćwiczenia. 15. Przetwarzanie sekwencji za pomocą sieci rekurencyjnych i splotowych. Neurony i warstwy rekurencyjne. Uczenie sieci rekurencyjnych. Prognozowanie szeregów czasowych. Obsługa długich sekwencji. Ćwiczenia. 16. Przetwarzanie języka naturalnego za pomocą sieci rekurencyjnych i mechanizmów uwagi. Generowanie tekstów szekspirowskich za pomocą znakowej sieci rekurencyjnej. Analiza sentymentów. Sieć typu koder - dekoder służąca do neuronowego tłumaczenia maszynowego. Mechanizmy uwagi. Współczesne innowacje w modelach językowych. Ćwiczenia. 17. Uczenie reprezentacji za pomocą autokoderów i generatywnych sieci przeciwstawnych. Efektywne reprezentacje danych. Analiza PCA za pomocą niedopełnionego autokodera liniowego. Autokodery stosowe. Autokodery splotowe. Autokodery rekurencyjne. Autokodery odszumiające. Autokodery rzadkie. Autokodery wariacyjne. Generatywne sieci przeciwstawne. Ćwiczenia. 18. Uczenie przez wzmacnianie. Uczenie się optymalizowania nagród. Wyszukiwanie strategii. Wprowadzenie do narzędzia OpenAI Gym. Sieci neuronowe jako strategie. Ocenianie czynności: problem przypisania zasługi. Gradienty strategii. Procesy decyzyjne Markowa. Uczenie metodą różnic czasowych. Q-uczenie. Implementacja modelu Q-uczenia głębokiego. Odmiany Q-uczenia głębokiego. Biblioteka TF-Agents. Przegląd popularnych algorytmów RN. Ćwiczenia. 19. Wielkoskalowe uczenie i wdrażanie modeli TensorFlow. Eksploatacja modelu TensorFlow. Wdrażanie modelu na urządzeniu mobilnym lub wbudowanym. Przyspieszanie obliczeń za pomocą procesorów graficznych. Uczenie modeli za pomocą wielu urządzeń. Ćwiczenia. Dziękuję! A. Rozwiązania ćwiczeń. B. Lista kontrolna projektu uczenia maszynowego. C. Problem dualny w maszynach wektorów nośnych. D. Różniczkowanie automatyczne. E. Inne popularne architektury sieci neuronowych. F. Specjalne struktury danych. G. Grafy TensorFlow.
This item is available in one branch. Expand information to see details.
Wypożyczalnia
There are copies available to loan: sygn. 004 (2 egz.)
The item has been added to the basket. If you don't know what the basket is for, click here for details.
Do not show it again