23389
Status dostępności:
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 004 (2 egz.)
Strefa uwag:
Uwaga dotycząca zawartości
CZĘŚĆ I. PIERWSZE KROKI. Rozdział 1. Podyskutujmy o uczeniu się. 1.1. Witaj. 1.2. Zakres, terminologia, predykcja i dane. 1.3. Rola maszyny w uczeniu maszynowym. 1.4. Przykład systemów uczących się. 1.5. Ocena systemów uczących się. 1.6. Proces budowania systemów uczących się. 1.7. Założenia i realia uczenia się. 1.8. Zakończenie rozdziału. Rozdział 2. Kontekst techniczny. 2.1. O naszej konfiguracji. 2.2. Potrzeba posiadania języka matematycznego. 2.3. Nasze oprogramowanie do zmierzenia się z uczeniem maszynowym. 2.4. Prawdopodobieństwo. 2.5. Kombinacje liniowe, sumy ważone i iloczyny skalarne. 2.6. Perspektywa geometryczna: punkty w przestrzeni. 2.7. Notacja sztuczki plus jeden. 2.8. Odjazd, zrywanie kaftana bezpieczeństwa i nieliniowość. 2.9. NumPy kontra "cała matematyka". 2.10. Problemy z wartościami zmiennoprzecinkowymi. 2.11. Zakończenie rozdziału. Rozdział 3. Predykcja kategorii - początki klasyfikacji. 3.1. Zadania klasyfikacji. 3.2. Prosty zestaw danych do klasyfikacji. 3.3. Trenowanie i testowanie: nie ucz się do testu. 3.4. Ocena - wystawienie stopni. 3.5. Prosty klasyfikator nr 1: najbliżsi sąsiedzi, związki na odległość i założenia. 3.6. Prosty klasyfikator nr 2: naiwny klasyfikator bayesowski, prawdopodobieństwo i złamane obietnice. 3.7. Uproszczona ocena klasyfikatorów. 3.8. Koniec rozdziału. Rozdział 4. Predykcja wartości numerycznych: początki regresji. 4.1. Prosty zbiór danych dla regresji. 4.2. Regresja z najbliższymi sąsiadami i statystyki sumaryczne. 4.3. Błędy regresji liniowej. 4.4. Optymalizacja - wybór najlepszej odpowiedzi. 4.5. Prosta ocena i porównanie regresorów. 4.6. Zakończenie rozdziału. CZĘŚĆ II. OCENA. Rozdział 5. Ocena i porównywanie metod uczenia się. 5.1. Ocena i dlaczego mniej znaczy więcej. 5.2. Terminologia dla faz uczenia się. 5.3. Majorze Tom, coś jest nie tak - nadmierne dopasowanie i niedopasowanie. 5.4. Od błędów do kosztów. 5.5. (Powtórne) próbkowanie - zamienić mniej w więcej. 5.6. Rozbicie: dekonstrukcja błędu na błąd systematyczny i wariancję. 5.7. Ocena graficzna i porównanie. 5.8. Porównywanie metod uczących się za pomocą walidacji krzyżowej. 5.9. Koniec rozdziału. Rozdział 6. Ocena klasyfikatorów. 6.1. Klasyfikatory bazowe. 6.2. Więcej niż dokładność - wskaźniki dla klasyfikacji. 6.3. Krzywe ROC. 6.4. Inne podejście dla wielu klas: jeden-kontra-jeden. 6.5. Krzywe precyzji i skuteczności wyszukiwania. 6.6. Krzywe kumulacyjnej odpowiedzi i wzniesienia. 6.7. Bardziej wyrafinowana ocena klasyfikatorów - podejście drugie. 6.8. Koniec rozdziału. Rozdział 7. Ocena metod regresji. 7.1. Metody regresji będące punktem odniesienia. 7.2. Dodatkowe miary w metodach regresji. 7.3. Wykresy składników resztowych. 7.4. Pierwsze podejście do standaryzacji. 7.5. Ocena mechanizmów regresji w bardziej zaawansowany sposób: podejście drugie. 7.6. Koniec rozdziału. CZĘŚĆ III. JESZCZE O METODACH I PODSTAWACH. Rozdział 8. Inne metody klasyfikacji. 8.1. Jeszcze o klasyfikacji. 8.2. Drzewa decyzyjne. 8.3. Klasyfikatory oparte na wektorach nośnych. 8.4. Regresja logistyczna. 8.5. Analiza dyskryminacyjna. 8.6. Założenia, obciążenie i klasyfikatory. 8.7. Porównanie klasyfikatorów: podejście trzecie. 8.8. Koniec rozdziału. Rozdział 9. Inne metody regresji. 9.1. Regresja liniowa na ławce kar – regularyzacja. 9.2. Regresja z użyciem wektorów nośnych. 9.3. Regresja segmentowa ze stałymi. 9.4. Drzewa regresyjne. 9.5. Porównanie metod regresji: podejście trzecie. 9.6. Koniec rozdziału. Rozdział 10. Ręczna inżynieria cech - manipulowanie danymi dla zabawy i dla zysku. 10.1. Terminologia i przyczyny stosowania inżynierii cech. 10.2. Wybieranie cech i redukcja danych - pozbywanie się śmieci. 10.3. Skalowanie cech. 10.4. Dyskretyzacja. 10.5. Kodowanie kategorii. 10.6. Relacje i interakcje. 10.7. Manipulowanie wartościami docelowymi. 10.8. Koniec rozdziału. Rozdział 11. Dopracowywanie hiperparametrów i potoki. 11.1. Modele, parametry i hiperparametry. 11.2. Dostrajanie hiperparametrów. 11.3. Wyprawa w rekurencyjną króliczą norę - zagnieżdżony sprawdzian krzyżowy. 11.4. Potoki. 11.5. Potoki i dostrajanie całego procesu. 11.6. Koniec rozdziału. CZĘŚĆ IV. ZWIĘKSZANIE ZŁOŻONOŚCI. Rozdział 12. Łączenie mechanizmów uczących się. 12.1. Zespoły. 12.2. Zespoły głosujące. 12.3. Bagging i lasy losowe. 12.4. Boosting. 12.5. Porównywanie metod opartych na zespołach drzew. 12.6. Koniec rozdziału. Rozdział 13. Modele z automatyczną inżynierią cech. 13.1. Wybieranie cech. 13.2. Tworzenie cech za pomocą jąder. 13.3. Analiza głównych składowych - technika nienadzorowana. 13.4. Koniec rozdziału. Rozdział 14. Inżynieria cech dla dziedzin - uczenie specyficzne dla dziedziny. 14.1. Praca z tekstem. 14.2. Klastrowanie. 14.3. Praca z obrazami. 14.4. Koniec rozdziału. Rozdział 15. Powiązania, rozwinięcia i kierunki dalszego rozwoju. 15.1. Optymalizacja. 15.2. Regresja liniowa z prostych składników. 15.3. Regresja logistyczna z prostych składników. 15.4. Maszyna SVM z prostych składników. 15.5. Sieci neuronowe. 15.6. Probabilistyczne modele grafowe. 15.7. Koniec rozdziału. Dodatek A. Kod z pliku mlwpy.py.
Recenzje:
Pozycja została dodana do koszyka. Jeśli nie wiesz, do czego służy koszyk, kliknij tutaj, aby poznać szczegóły.
Nie pokazuj tego więcej