Python (język programowania)
Sortowanie
Źródło opisu
Książki
(27)
Forma i typ
Książki
(26)
Publikacje fachowe
(23)
Publikacje dydaktyczne
(4)
Dostępność
dostępne
(27)
Placówka
Wypożyczalnia
(27)
Autor
Górczyński Robert
(4)
Watrak Andrzej
(4)
Meryk Radosław
(3)
Mizerska Anna
(2)
Sawka Krzysztof
(2)
Sweigart Al
(2)
Walczak Tomasz
(2)
Ahmad Imran (1977- )
(1)
Arnold Tim
(1)
Behrman Kennedy
(1)
Bogusławska Katarzyna
(1)
Buelta Jaime
(1)
Dawson Michael
(1)
Deitel Harvey M. (1945- )
(1)
Deitel Paul J
(1)
Deza Alfredo (1979- )
(1)
Fenner Mark E
(1)
Gheorghiu Grig
(1)
Gift Noah
(1)
Grażyński Andrzej
(1)
Grinberg Miguel
(1)
Géron Aurélien
(1)
Hubisz Jakub
(1)
Janusz Jacek
(1)
Kamiński Filip
(1)
Kapil Sunil
(1)
Kowalczyk Grzegorz
(1)
Luliński Marek
(1)
Lutz Mark
(1)
Matthes Eric (1972- )
(1)
Matuk Konrad
(1)
Mayer Christian
(1)
Melé Antonio
(1)
Mirjalili Vahid
(1)
Moch Wojciech
(1)
Monk Simon
(1)
Moroney Laurence
(1)
Ortega Candel José Manuel
(1)
Pawłowski Grzegorz
(1)
Piwko Łukasz
(1)
Pętlicki Marek
(1)
Rajca Piotr (1970- )
(1)
Raschka Sebastian
(1)
Ray Archana Tikayat
(1)
Sagalara Leszek
(1)
Saglara Leszek
(1)
Saha Amit
(1)
Sarbicki Gniewomir Paweł
(1)
Seitz Justin
(1)
Slatkin Brett
(1)
Staple Danny
(1)
Trojan Anna
(1)
Watrak Andrze
(1)
White Ryan T
(1)
Ziadé Tarek
(1)
Zumstein Felix
(1)
Rok wydania
2020 - 2024
(24)
2010 - 2019
(3)
Okres powstania dzieła
2001-
(22)
Kraj wydania
Polska
(27)
Język
polski
(27)
Temat
Przedsiębiorstwo
(1422)
Zarządzanie
(682)
Unia Europejska
(633)
Polska
(625)
Samorząd terytorialny
(532)
Python (język programowania)
(-)
Środki masowego przekazu
(426)
Kadry
(418)
Marketing
(414)
Gospodarka
(406)
Banki
(383)
Organizacja
(380)
Prawo pracy
(358)
Internet
(352)
Komunikacja społeczna
(333)
Globalizacja
(322)
Integracja europejska
(318)
Prawo
(307)
Nauczanie początkowe
(300)
Postępowanie administracyjne
(284)
Dziecko
(280)
Polityka
(266)
Rodzina
(262)
Prawa człowieka
(256)
Unia Europejska (UE)
(254)
Prawo administracyjne
(252)
Język angielski
(245)
Praca
(245)
Zarządzanie strategiczne
(245)
Pedagogika
(242)
Prawo cywilne
(242)
Administracja
(239)
Prawo karne
(239)
Szkolnictwo
(236)
Nauczyciele
(235)
Finanse
(233)
Państwo
(233)
Podatek
(231)
Polityka społeczna
(230)
Kultura
(229)
Psychologia
(227)
Finanse publiczne
(226)
Socjologia
(222)
Społeczeństwo
(217)
Innowacje
(216)
Rachunkowość
(216)
Nauczanie
(213)
Szkolnictwo wyższe
(212)
Zarządzanie jakością
(212)
Opieka społeczna
(209)
Reklama
(209)
Wychowanie
(209)
Rynek pracy
(207)
Budżety terenowe
(201)
Kobieta
(201)
Menedżerowie
(200)
Nauczanie zintegrowane
(199)
Młodzież
(198)
Nieruchomości
(194)
Prawo międzynarodowe
(194)
Konkurencja
(193)
Public relations
(193)
Prawo wspólnotowe europejskie
(191)
Osobowość
(189)
Przedsiębiorstwa małe i średnie
(188)
Zatrudnienie
(184)
Konsumenci (ekon.)
(180)
Bezrobocie
(179)
Rynek finansowy
(179)
Społeczeństwo informacyjne
(179)
Prawo karne procesowe
(177)
Ochrona środowiska
(176)
Prawo Unii Europejskiej
(175)
Rynek kapitałowy
(175)
Prawo gospodarcze
(165)
Kształcenie
(157)
Umowa
(157)
Filozofia
(152)
Logistyka gospodarcza
(151)
Turystyka
(149)
Sądownictwo
(148)
Zarządzanie wiedzą
(148)
Decyzje
(146)
Papiery wartościowe
(146)
Polityka międzynarodowa
(145)
Oświata
(144)
Ubezpieczenia społeczne
(144)
Demokracja
(140)
Prawo konstytucyjne
(138)
Płaca
(137)
Stosunki interpersonalne
(136)
Psychologia społeczna
(135)
Służba zdrowia
(135)
Inwestycje
(132)
Postępowanie cywilne
(132)
Terroryzm
(132)
Prawo autorskie
(129)
Język polski
(126)
Zarządzanie zasobami ludzkimi (HRM)
(125)
Motywacja pracy
(120)
Bezpieczeństwo publiczne
(119)
Gatunek
Podręcznik
(23)
Poradnik
(2)
Ćwiczenia i zadania
(2)
Podręczniki
(1)
Dziedzina i ujęcie
Informatyka i technologie informacyjne
(27)
Matematyka
(2)
Inżynieria i technika
(1)
27 wyników Filtruj
Książka
W koszyku
O autorze; O recenzencie; Przedmowa; WSTĘP I PODSTAWOWE ALGORYTMY Rozdział 1. Wprowadzenie do algorytmów; Co to jest algorytm?; Fazy algorytmu; Określenie logiki algorytmu; Zrozumienie pseudokodu; Korzystanie z fragmentów kodu (snippetów); Stworzenie planu wykonania; Wprowadzenie do pakietów w Pythonie; Pakiety w Pythonie; Programowanie w Pythonie z Jupyter; Notebook; Techniki projektowania algorytmów; Wymiar danych; Wymiar obliczeniowy; Analiza efektywności; Analiza pamięciowej złożoności obliczeniowej; Czasowa złożoność obliczeniowa; Szacowanie efektywności; Wybór algorytmu; Notacja dużego O; Walidacja algorytmu; Algorytmy dokładne, aproksymacyjne i randomizowane; Możliwość wyjaśnienia Podsumowanie; Rozdział 2. Struktury danych w algorytmach; Struktury danych w Pythonie; Lista; Krotka; Słownik; Zbiór; Ramka danych; Macierz; Abstrakcyjne typy danych; Wektor; Stos; Kolejka; Kiedy używać stosów i kolejek?; Drzewo; Podsumowanie; Rozdział 3. Algorytmy sortowania wyszukiwania; Wprowadzenie do algorytmów sortowania; Zamiana wartości zmiennych w Pythonie; Sortowanie bąbelkowe; Sortowanie przez wstawianie; Sortowanie przez scalanie; Sortowanie; Shella; Sortowanie przez wymianę; Wprowadzenie do algorytmów wyszukiwania; Wyszukiwanie liniowe; Wyszukiwanie binarne; Wyszukiwanie interpolacyjne; Praktyczne przykłady; Podsumowanie; Rozdział 4. Projektowanie algorytmów; Wprowadzenie do projektowania algorytmów; Kwestia 1: Czy algorytm zwraca rezultat, jakiego oczekujemy?; Kwestia 2: Czy robi to w optymalny sposób?; Kwestia 3: Jak efektywny będzie ten algorytm zastosowany do większych zbiorów danych?; Strategie algorytmiczne; Strategia "dziel i rządź"; Strategia programowania dynamicznego; Strategia algorytmu zachłannego; Praktyczny przykład - rozwiązanie problemu komiwojażera; Metoda siłowa; Zastosowanie algorytmu zachłannego; Algorytm PageRank; Definicja problemu; Implementacja algorytmu PageRank; Programowanie liniowe; Definicja problemu w programowaniu liniowym; Praktyczny przykład - planowanie przepustowości za pomocą programowania liniowego; Podsumowanie; Rozdział 5. Algorytmy grafowe; Reprezentacja grafów; Rodzaje grafów; Specjalne rodzaje krawędzi; Sieci egocentryczne; Analiza sieciowa; Wprowadzenie do teorii analizy sieciowej; Najkrótsza ścieżka; Określanie sąsiedztwa; Wskaźnik centralności; Obliczanie wskaźników centralności w Pythonie; Trawersowanie grafu; Wyszukiwanie wszerz; Wyszukiwanie w głąb; Studium przypadku - analiza oszustw; Prosta analiza pod kątem oszustwa; Podejście strażnicy; Podsumowanie; ALGORYTMY UCZENIA MASZYNOWEGO; Rozdział 6. Algorytmy nienadzorowanego uczenia maszynowego; Wprowadzenie do nienadzorowanego uczenia maszynowego; Uczenie nienadzorowane w cyklu życia eksploracji danych; Trendy badawcze w zakresie uczenia nienadzorowanego; Praktyczne przykłady; Algorytmy klasteryzacji; Wyliczanie podobieństw; Grupowanie hierarchiczne; Ocena klastrów; Zastosowania klasteryzacji; Redukcja wymiarów; Analiza głównych składowych; Ograniczenia analizy głównych składowych; Reguły asocjacyjne; Przykłady użycia; Analiza koszykowa; Reguły asocjacyjne; Wskaźniki reguł; Algorytmy analizy asocjacyjnej; Praktyczny przykład - grupowanie podobnych tweetów; Modelowanie tematów; Klasteryzacja; Algorytmy wykrywania odchyleń; Wykorzystanie klastrów; Wykorzystanie wykrywania odchyleń opartego na gęstości; Wykorzystanie maszyny wektorów nośnych; Podsumowanie; Rozdział 7. Tradycyjne algorytmy uczenia nadzorowanego; Nadzorowane uczenie maszynowe; Żargon nadzorowanego uczenia maszynowego; Warunki konieczne; Rozróżnienie między klasyfikatorami a regresorami; Algorytmy klasyfikujące; Wyzwanie dla klasyfikatorów; Inżynieria cech w przetwarzaniu potokowym; Ocena klasyfikatorów; Określenie faz klasyfikacji; Algorytm drzewa decyzyjnego; Metody zespolone; Regresja logistyczna; Maszyna wektorów nośnych; Naiwny klasyfikator bayesowski; Zwycięzcą wśród algorytmów klasyfikacji jest...; Algorytmy regresji; Wyzwanie dla regresji; Regresja liniowa; Algorytm drzewa regresji; Regresyjny algorytm wzmocnienia gradientowego; Zwycięzcą wśród algorytmów regresji jest...; Praktyczny przykład, jak przewidywać pogodę; Podsumowanie; Rozdział 8. Algorytmy sieci neuronowych; Wprowadzenie do sieci neuronowych; Ewolucja sieci neuronowych; Trenowanie sieci neuronowej; Anatomia sieci neuronowej; Definicja gradientu prostego; Funkcje aktywacji; Narzędzia i modele Keras TensorFlow; Rodzaje sieci neuronowych; Uczenie transferowe; Studium przypadku - użycie uczenia głębokiego do wykrywania oszustw; Metodologia; Podsumowanie; Rozdział 9. Algorytmy przetwarzania języka naturalnego; Wprowadzenie do przetwarzania języka naturalnego; Terminologia przetwarzania języka naturalnego NLTK; Model bag-of-words; Wektorowe przedstawienie słów; Otoczenie słowa; Właściwości wektorowego przedstawienia słów; Użycie rekurencyjnych sieci neuronowych do przetwarzania języka naturalnego; Wykorzystanie przetwarzania języka naturalnego do analizy sentymentu; Studium przypadku - analiza sentymentu w recenzjach filmowych; Podsumowanie; Rozdział 10. Silniki poleceń; Wprowadzenie do silników poleceń; Rodzaje silników poleceń; Silniki poleceń oparte na treści; Silniki poleceń oparte na filtrowaniu kooperacyjnym Hybrydowe silniki poleceń; Ograniczenia systemów poleceń; Zimny start; Wymagania dotyczące metadanych; Problem rzadkości danych; Tendencyjność ze względu na wpływ społeczny; Ograniczone dane; Obszary praktycznych zastosowań; Przykład praktyczny - stworzenie silnika poleceń; Podsumowanie; ZAGADNIENIA ZAAWANSOWANE; Rozdział 11. Algorytmy danych; Wprowadzenie do algorytmów danych; Klasyfikacja danych; Algorytmy przechowywania danych; Strategie przechowywania danych; Algorytmy strumieniowania danych; Zastosowania strumieniowania; Algorytmy kompresji danych; Algorytmy kompresji bezstratnej; Przykład praktyczny - analiza sentymentu na Twitterze; Podsumowanie; Rozdział 12. Kryptografia; Wprowadzenie do kryptografii; Waga najsłabszego ogniwa; Terminologia; Wymagania bezpieczeństwa; Podstawy projektowania szyfrów; Rodzaje technik kryptograficznych; Kryptograficzna funkcja skrótu; Szyfrowanie symetryczne; Szyfrowanie asymetryczne; Przykład - kwestie bezpieczeństwa we wdrażaniu modelu uczenia maszynowego; Atak man-in-the-middle; Obrona przed techniką masquerading; Szyfrowanie danych i modelu; Podsumowanie; Rozdział 13. Algorytmy przetwarzania danych w dużej skali; Wprowadzenie do algorytmów przetwarzania danych w dużej skali; Definicja dobrze zaprojektowanego algorytmu przetwarzania danych w dużej skali; Terminologia; Projektowanie algorytmów równoległych; Prawo Amdahla; Szczegółowość podprocesów Równoważenie obciążenia; Przetwarzanie lokalne; Procesy współbieżne w Pythonie; Tworzenie strategii przetwarzania na puli zasobów; Architektura CUDA; Obliczenia w klastrze; Strategia hybrydowa; Podsumowanie; Rozdział 14. Uwagi praktyczne; Wprowadzenie do uwag praktycznych; Smutna historia bota sztucznej inteligencji na Twitterze; Transparentność algorytmu; Algorytmy uczenia maszynowego i transparentność; Etyka i algorytmy; Problemy z algorytmami uczącymi się; Znaczenie kwestii etycznych; Ograniczanie stronniczości modeli; Problemy NP-trudne; Uproszczenie problemu; Dopasowanie dobrze znanego rozwiązania podobnego problemu; Metoda probabilistyczna; Kiedy używać algorytmów; Praktyczny przykład - teoria czarnego łabędzia; Podsumowanie.
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 004 (2 egz.)
Brak okładki
Książka
W koszyku
Zawiera: O autorze; O recenzencie; Przedmowa; Dla kogo przeznaczona jest ta książka?; Zawartość książki; Jak maksymalnie skorzystać z lektury?; Pobieranie plików z przykładowym kodem; Pobieranie kolorowych rysunków; Używane konwencje; 1. Rozpoczęcie przygody z automatyzacją: Aktywowanie środowiska wirtualnego; Instalowanie niezależnych pakietów; Tworzenie łańcuchów znaków ze sformatowanymi wartościami; Operowanie łańcuchami znaków; Pobieranie danych z ustrukturyzowanych łańcuchów znaków; Używanie niezależnego narzędzia parse; Wprowadzenie do wyrażeń regularnych; Więcej o wyrażeniach regularnych; Dodawanie argumentów wiersza poleceń; 2. Łatwa automatyzacja zadań: Przygotowanie zadania; Konfigurowanie prac crona; Rejestrowanie błędów i problemów; Wysyłanie e-maili z powiadomieniami; 3. Tworzenie pierwszej aplikacji do pobierania informacji ze stron WWW: Pobieranie stron WWW; Parsowanie kodu HTML; Crawling w sieci WWW; Subskrybowanie kanałów informacyjnych; Dostęp do internetowych API; Interakcje z formularzami; Używanie pakietu Selenium do obsługi zaawansowanych interakcji; Dostęp do stron chronionych hasłem; Przyspieszanie pobierania informacji ze stron WWW; 4. Wyszukiwanie i wczytywanie plików lokalnych: Skanowanie i przeszukiwanie katalogów; Wczytywanie plików tekstowych; Praca z kodowaniami; Wczytywanie plików CSV; Wczytywanie plików dziennika; Odczyt metadanych plików; Wczytywanie plików graficznych; Wczytywanie plików PDF; Wczytywanie dokumentów Worda; Sprawdzanie występowania słowa kluczowego w dokumentach; 5. Generowanie atrakcyjnych raportów: Tworzenie prostego raportu obejmującego zwykły tekst; Używanie szablonów do generowania raportów; Formatowanie tekstu za pomocą znaczników Markdown; Generowanie prostego dokumentu Worda; Dodawanie stylów do dokumentu Worda; Generowanie struktury w dokumencie Worda; Dodawanie grafiki do dokumentów Worda; Generowanie prostego dokumentu PDF; Określanie struktury dokumentu PDF; Łączenie raportów w formacie PDF; Dodawanie znaków wodnych i szyfrowanie dokumentów PDF; 6. Zabawa z arkuszami kalkulacyjnymi: Zapis arkusza kalkulacyjnego w formacie CSV; Aktualizowanie plików CSV; Odczyt arkusza kalkulacyjnego Excela; Aktualizowanie arkusza kalkulacyjnego Excela; Tworzenie nowych arkuszy w plikach Excela; Tworzenie wykresów w Excelu; Formatowanie komórek w Excelu; Tworzenie makra w LibreOffice; 7. Oczyszczanie i przetwarzanie danych: Przygotowywanie arkusza kalkulacyjnego w formacie CSV; Dodawanie symboli walut na podstawie lokalizacji; Standaryzowanie formatu dat; Agregowanie danych; Równoległe przetwarzanie danych; Przetwarzanie danych z użyciem biblioteki Pandas; 8. Tworzenie atrakcyjnych wykresów: Tworzenie prostego wykresu z wartością sprzedaży; Generowanie słupków warstwowych; Rysowanie wykresów kołowych; Wyświetlanie wielu linii; Rysowanie wykresów punktowych; Wyświetlanie map; Dodawanie legendy i opisów; Łączenie wykresów; Zapisywanie wykresów; 9. Kanały komunikacji: Praca z szablonami e-maili; Wysyłanie pojedynczych e-maili; Odczytywanie e-maili; Dodawanie subskrybentów do newslettera rozsyłanego pocztą elektroniczną; Przesyłanie powiadomień za pomocą e-maili; Tworzenie SMS-ów; Odbieranie SMS-ów; Tworzenie bota dla komunikatora Telegram; 10. A może zautomatyzujesz kampanię marketingową?: Wprowadzenie; Wykrywanie okazji; Tworzenie spersonalizowanych kodów rabatowych; Wysyłanie powiadomień do klienta z użyciem preferowanego przez niego kanału; Przygotowywanie informacji o sprzedaży; Generowanie raportów sprzedażowych; 11. Uczenie maszynowe i automatyzacja: Wprowadzenie; Analizowanie obrazów za pomocą Google Cloud Vision AI; Pobieranie tekstu z obrazu za pomocą Google Cloud Vision AI; Analizowanie tekstu za pomocą Google Cloud Natural Language; Tworzenie własnego bazującego na uczeniu maszynowym modelu do klasyfikowania tekstu; 12. Automatyczne procedury testowe: Wprowadzenie; Pisanie i wykonywanie przypadków testowych; Testowanie kodu zewnętrznego; Testowanie z użyciem atrap zależności; Testowanie z użyciem symulowanych wywołań HTTP; Przygotowywanie scenariuszy testowych; Selektywne wykonywanie testów; 13. Techniki debugowania: Wprowadzenie; Podstawy interpretera Pythona; Debugowanie za pomocą rejestrowania informacji; Debugowanie z użyciem punktów przerwania; Doskonalenie umiejętności debugowania.
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 004 (2 egz.)
Książka
W koszyku
Wstęp; Rozdział 1. Wprowadzenie. Program Koniec gry: Analiza programu Koniec gry; Co warto wiedzieć o Pythonie?; Konfiguracja Pythona w systemie Windows; Konfiguracja Pythona w innych systemach operacyjnych; Wprowadzenie do IDLE; Powrót do programu Koniec gry; Podsumowanie; Rozdział 2. Typy, zmienne i proste operacje wejścia-wyjścia. Program Nieistotne fakty: Wprowadzenie do programu Nieistotne fakty; Użycie cudzysłowów przy tworzeniu łańcuchów znaków; Używanie sekwencji specjalnych w łańcuchach znaków; Konkatenacja i powielanie łańcuchów; Operacje na liczbach; Pojęcie zmiennych; Pobieranie danych wprowadzanych przez użytkownika; Używanie metod łańcucha; Stosowanie właściwych typów; Konwersja wartości; Powrót do programu Nieistotne fakty; Podsumowanie; Rozdział 3. Rozgałęzianie kodu, pętle while, projektowanie programu. Gra Odgadnij moją liczbę: Wprowadzenie do gry Jaka to liczba?; Generowanie liczb losowych; Używanie instrukcji if; Używanie klauzuli else; Używanie klauzuli elif; Tworzenie pętli while; Unikanie pętli nieskończonych; Traktowanie wartości jako warunków; Tworzenie umyślnych pętli nieskończonych; Korzystanie z warunków złożonych; Projektowanie programów; Powrót do gry Jaka to liczba?; Podsumowanie; Rozdział 4. Pętle for, łańcuchy znaków i krotki. Gra Wymieszane litery: Wprowadzenie do programu Wymieszane litery; Liczenie za pomocą pętli for; Stosowanie funkcji i operatorów sekwencji do łańcuchów znaków; Indeksowanie łańcuchów; Niemutowalność łańcuchów; Tworzenie nowego łańcucha; Wycinanie łańcuchów; Powrót do gry Wymieszane litery; Podsumowanie; Rozdział 5. Listy i słowniki. Gra Szubienica: Wprowadzenie do gry Szubienica; Korzystanie z list; Korzystanie z metod listy; Kiedy należy używać krotek zamiast list?; Używanie sekwencji zagnieżdżonych; Referencje współdzielone; Używanie słowników; Powrót do gry Szubienica; Podsumowanie; Rozdział 6. Funkcje. Gra Kółko i krzyżyk: Wprowadzenie do gry Kółko i krzyżyk; Tworzenie funkcji; Używanie parametrów i wartości zwrotnych; Wykorzystanie argumentów nazwanych i domyślnych wartości parametrów; Wykorzystanie zmiennych globalnych i stałych; Powrót do gry Kółko i krzyżyk; Podsumowanie; Rozdział 7. Pliki i wyjątki. Gra Turniej wiedzy: Wprowadzenie do programu Turniej wiedzy; Odczytywanie danych z plików tekstowych; Zapisywanie danych do pliku tekstowego; Przechowywanie złożonych struktur danych w plikach; Obsługa wyjątków; Powrót do gry Turniej wiedzy; Podsumowanie; Rozdział 8. Obiekty programowe. Program Opiekun zwierzaka: Wprowadzenie do programu Opiekun zwierzaka; Podstawy programowania obiektowego; Tworzenie klas, metod i obiektów; Używanie konstruktorów; Wykorzystywanie atrybutów; Wykorzystanie atrybutów klasy i metod statycznych; Hermetyzacja obiektów; Używanie atrybutów i metod prywatnych; Kontrolowanie dostępu do atrybutów; Powrót do programu Opiekun zwierzaka; Podsumowanie; Rozdział 9. Programowanie obiektowe. Gra Blackjack: Wprowadzenie do gry Blackjack; Wysyłanie i odbieranie komunikatów; Tworzenie kombinacji obiektów; Wykorzystanie dziedziczenia do tworzenia nowych klas; Rozszerzanie klasy poprzez dziedziczenie; Modyfikowanie zachowania odziedziczonych metod; Polimorfizm; Tworzenie modułów; Powrót do gry Blackjack; Podsumowanie; Rozdział 10. Tworzenie interfejsów GUI. Gra Mad Lib: Wprowadzenie do programu Mad Lib; Przyjrzenie się interfejsowi GUI; Programowanie sterowane zdarzeniami; Zastosowanie okna głównego; Używanie przycisków; Tworzenie interfejsu GUI przy użyciu klasy; Wiązanie widżetów z procedurami obsługi zdarzeń; Używanie widżetów Text i Entry oraz menedżera układu Grid; Wykorzystanie pól wyboru; Wykorzystanie przycisków opcji; Powrót do programu Mad Lib; Podsumowanie; Rozdział 11. Grafika. Gra Pizza Panic: Wprowadzenie do gry Pizza Panic; Wprowadzenie do pakietów pygame i livewires; Tworzenie okna graficznego; Ustawienie obrazu tła; Układ współrzędnych ekranu graficznego; Wyświetlanie duszka; Wyświetlanie tekstu; Wyświetlanie komunikatu; Przemieszczanie duszków; Radzenie sobie z granicami ekranu; Obsługa danych wejściowych z myszy; Wykrywanie kolizji; Powrót do gry Pizza Panic; Podsumowanie; Rozdział 12. Dźwięk, animacja i rozwijanie programu. Gra Astrocrash: Wprowadzenie do gry Astrocrash; Odczyt klawiatury; Obracanie duszka; Tworzenie animacji; Przegląd obrazów eksplozji; Wykorzystywanie dźwięku i muzyki; Planowanie gry Astrocrash; Utworzenie asteroidów; Obracanie statku; Poruszanie statku; Wystrzeliwanie pocisków; Regulowanie tempa wystrzeliwania pocisków; Obsługa kolizji; Dodanie efektów eksplozji; Dodanie poziomów gry, rejestracji wyników oraz tematu muzycznego; Podsumowanie; Dodatek A. Strona internetowa książki: Pliki archiwów; Dodatek B. Opis pakietu livewires: Pakiet livewires; Klasy modułu games; Funkcje modułu games; Stałe modułu games; Stałe modułu color; Skorowidz.
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 004 (2 egz.)
Książka
W koszyku
Przedmowa; Zanim zaczniesz; 1. Wprowadzenie do komputerów i języka Python: 1.1. Wstęp; 1.2. Podstawy technologii obiektowych; 1.3. Język Python; 1.4. Biblioteki; 1.5. IPython i notatniki Jupytera - pierwsze spotkanie; 1.6. Chmury i internet rzeczy; 1.7. Big Data - ile to jest "Big"?; 1.8. Analiza przypadku - mobilna aplikacja Big Data; 1.9. Wprowadzenie do Data Science: gdy informatyka spotyka się z Data Science; 1.10. Podsumowanie; 2. Wprowadzenie do programowania w języku Python: 2.1. Wstęp; 2.2. Zmienne i instrukcje przypisania; 2.3. Obliczenia arytmetyczne; 2.4. Funkcja "print" i łańcuchy znaków; 2.5. Łańcuchy z potrójnymi ogranicznikami; 2.6. Wprowadzanie danych z klawiatury; 2.7. Podejmowanie decyzji: instrukcja "if" i operatory porównania; 2.8. Obiekty i typowanie dynamiczne; 2.9. Wprowadzenie do Data Science - podstawowe statystyki opisowe; 2.10. Podsumowanie; 3. Instrukcje przepływu sterowania: 3.1. Wstęp; 3.2. Słowa kluczowe języka Python; 3.3. Instrukcja "if"; 3.4. Instrukcje "if ... else" i "if ... elif ... else"; 3.5. Instrukcja "while"; 3.6. Instrukcja "for"; 3.7. Rozszerzone przypisania; 3.8. Iterowanie po ciągach. Formatowane łańcuchy; 3.9. Nadzorowane iterowanie; 3.10. Wbudowana funkcja "range" - nieco dokładniej; 3.11. Obliczenia finansowe - typ "Decimal"; 3.12. Instrukcje "continue" i "break"; 3.13. Operatory boolowskie; 3.14. Wprowadzenie do Data Science: miary tendencji centralnej; 3.15. Podsumowanie; 4. Funkcje: 4.1. Wstęp; 4.2. Funkcje definiowane w programie; 4.3. Funkcje z wieloma parametrami; 4.4. Generowanie liczb pseudolosowych; 4.5. Analiza przypadku - gra losowa; 4.6. Standardowa biblioteka Pythona; 4.7. Funkcje modułu "math"; 4.8. Wspomagane uzupełnianie kodu; 4.9. Domyślne wartości parametrów; 4.10. Argumenty kluczowe; 4.11. Zmienne listy parametrów; 4.12. Metody - funkcje należące do obiektów; 4.13. Zasięg definicji; 4.14. O importowaniu nieco dokładniej; 4.15. Przekazywanie argumentów - nieco szczegółów; 4.16. Rekurencja; 4.17. Funkcyjny styl programowania; 4.18. Wprowadzenie do Data Science: miary rozproszenia; 4.19. Podsumowanie; 5. Ciągi: listy i krotki: 5.1. Wstęp; 5.2. Listy; 5.3. Krotki; 5.4. Rozpakowywanie ciągów; 5.5. Wyodrębnianie podciągów; 5.6. Instrukcja "del"; 5.7. Listy jako argumenty wywołań funkcji; 5.8. Sortowanie list; 5.9. Multiplikacja ciągu; 5.10. Przeszukiwanie ciągów; 5.11. Inne metody listy; 5.12. Symulowanie stosu za pomocą listy; 5.13. Odwzorowywanie list; 5.14. Wyrażenia generatorowe; 5.15. Natywne filtrowanie, mapowanie i redukcja; 5.16. Inne funkcje do przetwarzania ciągów; 5.17. Listy dwuwymiarowe; 5.18. Wprowadzenie do Data Science: symulacje i ich statyczna wizualizacja; 5.19. Podsumowanie; 6. Słowniki i zbiory: 6.1. Wstęp; 6.2. Słowniki; 6.3. Zbiory; 6.4. Wprowadzenie do Data Science: dynamiczna wizualizacja symulacji; 6.5. Podsumowanie; 7. Biblioteka NumPy i tablice ndarray: 7.1. Wstęp; 7.2. Tworzenie tablic na podstawie istniejących danych; 7.3. Atrybuty tablic 2357.4. Wypełnianie tablicy zadaną wartością; 7.5. Tworzenie tablicy na podstawie zakresu danych; 7.6. %timeit - porównanie efektywności tablic i list; 7.7. Inne "magiczne" polecenia IPythona; 7.8. Operatory tablicowe; 7.9. Metody obliczeniowe biblioteki "NumPy"; 7.10. Funkcje uniwersalne biblioteki "NumPy"; 7.11. Indeksowanie i wyodrębnianie; 7.12. Widoki tablic jako płytkie kopie; 7.13. Głębokie kopiowanie; 7.14. Restrukturyzacja i transponowanie tablic; 7.15. Wprowadzenie do Data Science: szeregi i ramki danych biblioteki Pandas; 7.16. Podsumowanie; 8. Łańcuchy znaków: 8.1. Wstęp; 8.2. Formatowanie łańcuchów; 8.3. Konkatenowanie i zwielokrotnianie łańcuchów; 8.4. Usuwanie białych znaków otaczających łańcuch; 8.5. Zmiana wielkości liter w łańcuchu; 8.6. Operatory porównywania łańcuchów; 8.7. Wyszukiwanie podłańcuchów; 8.8. Zastępowanie podłańcuchów; 8.9. Dzielenie i składanie łańcuchów; 8.10. Testowanie specyficznych właściwości łańcucha i jego znaków; 8.11. Surowe łańcuchy; 8.12. Podstawy wyrażeń regularnych; 8.13. Wprowadzenie do Data Science: wyrażenia regularne i preparacja danych w bibliotece Pandas; 8.14. Podsumowanie; 9. Pliki i wyjątki: 9.1. Wstęp; 9.2. Pliki; 9.3. Przetwarzanie plików tekstowych; 9.4. Aktualizowanie plików tekstowych; 9.5. Serializacja obiektów w formacie JSON; 9.6. Niebezpieczny moduł "pickle"; 9.7. Dodatkowe uwagi o plikach; 9.8. Obsługa wyjątków; 9.9. Klauzula "finally"; 9.10. Jawne generowanie wyjątków; 9.11. Odwijanie stosu i ślad wykonania; 9.12. Wprowadzenie do Data Science: przetwarzanie plików CSV; 9.13. Podsumowanie; 10. Programowanie zorientowane obiektowo: 10.1. Wstęp; 10.2. Przykład: klasa "Account"; 10.3. Kontrolowanie dostępu do atrybutów; 10.4. Właściwości organizują dostęp do atrybutów. Przykład: klasa "Time"; 10.5. Symulowanie "prywatności" atrybutów; 10.6. Analiza przypadku: symulacja tasowania i rozdawania kart; 10.7. Dziedziczenie: klasy bazowe i podklasy; 10.8. Hierarchia dziedziczenia a polimorfizm; 10.9. "Kacze typowanie" a polimorfizm; 10.10. Przeciążanie operatorów; 10.11. Klasy wyjątków - hierarchia i definiowanie podklas; 10.12. Nazwane krotki; 10.13. Nowość wersji 3.7: klasy danych; 10.14. Testy jednostkowe przy użyciu łańcuchów dokumentacyjnych i modułu "doctest"; 10.15. Przestrzenie nazw i widoczność identyfikatorów; 10.16. Wprowadzenie do Data Science: szeregi czasowe i prosta regresja liniowa; 10.17. Podsumowanie; 11. Przetwarzanie języka naturalnego (NLP): 11.1. Wstęp; 11.2. Klasa "TextBlob"; 11.3. Wizualizacja statystyki słów; 11.4. Ocena czytelności tekstu - biblioteka "Textatistic"; 11.5. Rozpoznawanie nazwanych encji - biblioteka "spaCy"; 11.6. Podobieństwo dokumentów; 11.7. Inne biblioteki i narzędzia NLP; 11.8. Zastosowanie NLP w uczeniu maszynowym i głębokim uczeniu; 11.9. Zbiory danych dla NLP; 11.10. Podsumowanie; 12. Eksploracja masowych danych – Twitter: 12.1. Wstęp; 12.2. Ogólnie o API Twittera; 12.3. Pierwszy krok - konto deweloperskie; 12.4. Drugi krok - aplikacja i poświadczenia; 12.5. Tweety jako obiekty; 12.6. Biblioteka "Tweepy"; 12.7. Uwierzytelnianie za pomocą biblioteki "Tweepy"; 12.8. Informacja o koncie Twittera; 12.9. Kursory biblioteki "Tweepy"; 12.10. Przeszukiwanie niedawnych tweetów; 12.11. Odkrywanie trendów - Twitter Trends API; 12.12. Preparacja tweetów przed analizą; 12.13. Strumieniowanie tweetów - Twitter Streaming API; 12.14. Tweety i analiza sentymentu - klasa "SentimentListener"; 12.15. Mapy i geokodowanie; 12.16. Przechowywanie tweedów; 12.17. Twitter a szeregi czasowe; 12.18. Podsumowanie; 13. Przetwarzanie poznawcze - IBM Watson: 13.1. Wstęp; 13.2. Konto IBM Cloud i konsola usług; 13.3. Usługi platformy Watson; 13.4. Przydatne narzędzia platformy Watson; 13.5. Watson Developer Cloud Python SDK; 13.6. Analiza przypadku: dwujęzyczna aplikacja konwersacyjna; 13.7. Zasoby powiązane z IBM Watson; 13.8. Podsumowanie; 14. Uczenie maszynowe: klasyfikacja, regresja i klasteryzacja: 14.1. Wstęp; 14.2. Analiza przypadku: algorytm k najbliższych sąsiadów - klasyfikacja w zbiorze "Digits". Część pierwsza; 14.3. Analiza przypadku: algorytm k najbliższych sąsiadów - klasyfikacja w zbiorze "Digits". Część druga; 14.4. Analiza przypadku: prosta regresja liniowa na szeregu czasowym; 14.5. Analiza przypadku: wielokrotna regresja liniowa na zbiorze "California Housing"; 14.6. Analiza przypadku: uczenie nienadzorowane. Część pierwsza - redukcja wymiarowości; 14.7. Analiza przypadku: uczenie nienadzorowane. Część druga - klasteryzacja za pomocą algorytmu k średnich; 14.8. Podsumowanie; 15. Głębokie uczenie: 15.1. Wstęp; 15.2. Pliki danych wbudowane w bibliotekę "Keras"; 15.3. Alternatywne środowiska Anacondy; 15.4. Sieci neuronowe; 15.5. Tensory; 15.6. Konwolucyjne sieci neuronowe i widzenie komputerowe: wieloklasyfikacja w zbiorze "MNIST"; 15.7. TensorBoard - wizualizacja trenowania sieci; 15.8. ConvNetJS: wizualizacja trenowania w oknie przeglądarki WWW; 15.9. Rekurencyjne sieci neuronowe i ciągi danych: analiza sentymentu w zbiorze "IMDb"; 15.10. Dostrajanie modeli głębokiego uczenia; 15.11. Modele wstępnie wytrenowane; 15.12. Podsumowanie; 16. Big Data: Hadoop, Spark, NoSQL i IoT: 16.1. Wstęp; 16.2. Relacyjne bazy danych i język SQL; 16.3. Bazy danych NoSQL i NewSQL dla Big Data - krótki rekonesans; 16.4. Analiza przypadku: dokumenty JSON w bazie MongoDB; 16.5. Hadoop; 16.6. Spark; 16.7. Strumieniowanie Sparka: zliczanie hashtagów przy użyciu "pyspark-notebook"; 16.8. Internet rzeczy (IoT) i dashboardy; 16.9. Podsumowanie.
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 004 (2 egz.)
Książka
W koszyku
CZĘŚĆ I. PIERWSZE KROKI. Rozdział 1. Podyskutujmy o uczeniu się. 1.1. Witaj. 1.2. Zakres, terminologia, predykcja i dane. 1.3. Rola maszyny w uczeniu maszynowym. 1.4. Przykład systemów uczących się. 1.5. Ocena systemów uczących się. 1.6. Proces budowania systemów uczących się. 1.7. Założenia i realia uczenia się. 1.8. Zakończenie rozdziału. Rozdział 2. Kontekst techniczny. 2.1. O naszej konfiguracji. 2.2. Potrzeba posiadania języka matematycznego. 2.3. Nasze oprogramowanie do zmierzenia się z uczeniem maszynowym. 2.4. Prawdopodobieństwo. 2.5. Kombinacje liniowe, sumy ważone i iloczyny skalarne. 2.6. Perspektywa geometryczna: punkty w przestrzeni. 2.7. Notacja sztuczki plus jeden. 2.8. Odjazd, zrywanie kaftana bezpieczeństwa i nieliniowość. 2.9. NumPy kontra "cała matematyka". 2.10. Problemy z wartościami zmiennoprzecinkowymi. 2.11. Zakończenie rozdziału. Rozdział 3. Predykcja kategorii - początki klasyfikacji. 3.1. Zadania klasyfikacji. 3.2. Prosty zestaw danych do klasyfikacji. 3.3. Trenowanie i testowanie: nie ucz się do testu. 3.4. Ocena - wystawienie stopni. 3.5. Prosty klasyfikator nr 1: najbliżsi sąsiedzi, związki na odległość i założenia. 3.6. Prosty klasyfikator nr 2: naiwny klasyfikator bayesowski, prawdopodobieństwo i złamane obietnice. 3.7. Uproszczona ocena klasyfikatorów. 3.8. Koniec rozdziału. Rozdział 4. Predykcja wartości numerycznych: początki regresji. 4.1. Prosty zbiór danych dla regresji. 4.2. Regresja z najbliższymi sąsiadami i statystyki sumaryczne. 4.3. Błędy regresji liniowej. 4.4. Optymalizacja - wybór najlepszej odpowiedzi. 4.5. Prosta ocena i porównanie regresorów. 4.6. Zakończenie rozdziału. CZĘŚĆ II. OCENA. Rozdział 5. Ocena i porównywanie metod uczenia się. 5.1. Ocena i dlaczego mniej znaczy więcej. 5.2. Terminologia dla faz uczenia się. 5.3. Majorze Tom, coś jest nie tak - nadmierne dopasowanie i niedopasowanie. 5.4. Od błędów do kosztów. 5.5. (Powtórne) próbkowanie - zamienić mniej w więcej. 5.6. Rozbicie: dekonstrukcja błędu na błąd systematyczny i wariancję. 5.7. Ocena graficzna i porównanie. 5.8. Porównywanie metod uczących się za pomocą walidacji krzyżowej. 5.9. Koniec rozdziału. Rozdział 6. Ocena klasyfikatorów. 6.1. Klasyfikatory bazowe. 6.2. Więcej niż dokładność - wskaźniki dla klasyfikacji. 6.3. Krzywe ROC. 6.4. Inne podejście dla wielu klas: jeden-kontra-jeden. 6.5. Krzywe precyzji i skuteczności wyszukiwania. 6.6. Krzywe kumulacyjnej odpowiedzi i wzniesienia. 6.7. Bardziej wyrafinowana ocena klasyfikatorów - podejście drugie. 6.8. Koniec rozdziału. Rozdział 7. Ocena metod regresji. 7.1. Metody regresji będące punktem odniesienia. 7.2. Dodatkowe miary w metodach regresji. 7.3. Wykresy składników resztowych. 7.4. Pierwsze podejście do standaryzacji. 7.5. Ocena mechanizmów regresji w bardziej zaawansowany sposób: podejście drugie. 7.6. Koniec rozdziału. CZĘŚĆ III. JESZCZE O METODACH I PODSTAWACH. Rozdział 8. Inne metody klasyfikacji. 8.1. Jeszcze o klasyfikacji. 8.2. Drzewa decyzyjne. 8.3. Klasyfikatory oparte na wektorach nośnych. 8.4. Regresja logistyczna. 8.5. Analiza dyskryminacyjna. 8.6. Założenia, obciążenie i klasyfikatory. 8.7. Porównanie klasyfikatorów: podejście trzecie. 8.8. Koniec rozdziału. Rozdział 9. Inne metody regresji. 9.1. Regresja liniowa na ławce kar – regularyzacja. 9.2. Regresja z użyciem wektorów nośnych. 9.3. Regresja segmentowa ze stałymi. 9.4. Drzewa regresyjne. 9.5. Porównanie metod regresji: podejście trzecie. 9.6. Koniec rozdziału. Rozdział 10. Ręczna inżynieria cech - manipulowanie danymi dla zabawy i dla zysku. 10.1. Terminologia i przyczyny stosowania inżynierii cech. 10.2. Wybieranie cech i redukcja danych - pozbywanie się śmieci. 10.3. Skalowanie cech. 10.4. Dyskretyzacja. 10.5. Kodowanie kategorii. 10.6. Relacje i interakcje. 10.7. Manipulowanie wartościami docelowymi. 10.8. Koniec rozdziału. Rozdział 11. Dopracowywanie hiperparametrów i potoki. 11.1. Modele, parametry i hiperparametry. 11.2. Dostrajanie hiperparametrów. 11.3. Wyprawa w rekurencyjną króliczą norę - zagnieżdżony sprawdzian krzyżowy. 11.4. Potoki. 11.5. Potoki i dostrajanie całego procesu. 11.6. Koniec rozdziału. CZĘŚĆ IV. ZWIĘKSZANIE ZŁOŻONOŚCI. Rozdział 12. Łączenie mechanizmów uczących się. 12.1. Zespoły. 12.2. Zespoły głosujące. 12.3. Bagging i lasy losowe. 12.4. Boosting. 12.5. Porównywanie metod opartych na zespołach drzew. 12.6. Koniec rozdziału. Rozdział 13. Modele z automatyczną inżynierią cech. 13.1. Wybieranie cech. 13.2. Tworzenie cech za pomocą jąder. 13.3. Analiza głównych składowych - technika nienadzorowana. 13.4. Koniec rozdziału. Rozdział 14. Inżynieria cech dla dziedzin - uczenie specyficzne dla dziedziny. 14.1. Praca z tekstem. 14.2. Klastrowanie. 14.3. Praca z obrazami. 14.4. Koniec rozdziału. Rozdział 15. Powiązania, rozwinięcia i kierunki dalszego rozwoju. 15.1. Optymalizacja. 15.2. Regresja liniowa z prostych składników. 15.3. Regresja logistyczna z prostych składników. 15.4. Maszyna SVM z prostych składników. 15.5. Sieci neuronowe. 15.6. Probabilistyczne modele grafowe. 15.7. Koniec rozdziału. Dodatek A. Kod z pliku mlwpy.py.
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 004 (2 egz.)
Książka
W koszyku
Uczenie maszynowe z użyciem Scikit-Learn i TensorFlow / Aurélien Géron ; tłum. Krzysztof Sawka. - Wydanie 2 - aktualizacja do modułu TensorFlow 2. - Gliwice : Helion S.A. , cop. 2020. - 764, [4] s. : rys., wykresy, wzory ;
CZĘŚĆ I. PODSTAWY UCZENIA MASZYNOWEGO. 1. Krajobraz uczenia maszynowego. Czym jest uczenie maszynowe? Dlaczego warto korzystać z uczenia maszynowego? Przykładowe zastosowania. Rodzaje systemów uczenia maszynowego. Główne problemy uczenia maszynowego. Testowanie i ocenianie. Ćwiczenia. 2. Nasz pierwszy projekt uczenia maszynowego. Praca z rzeczywistymi danymi. Przeanalizuj całokształt projektu. Zdobądź dane. Odkrywaj i wizualizuj dane, aby zdobywać nowe informacje. Przygotuj dane pod algorytmy uczenia maszynowego. Wybór i uczenie modelu. Wyreguluj swój model. Uruchom, monitoruj i utrzymuj swój system. Teraz Twoja kolej! Ćwiczenia. 3. Klasyfikacja. Zbiór danych MNIST. Uczenie klasyfikatora binarnego. Miary wydajności. Klasyfikacja wieloklasowa. Analiza błędów. Klasyfikacja wieloetykietowa. Klasyfikacja wielowyjściowa. Ćwiczenia. 4. Uczenie modeli. Regresja liniowa. Gradient prosty. Regresja wielomianowa. Krzywe uczenia. Regularyzowane modele liniowe. Regresja logistyczna. Ćwiczenia. 5. Maszyny wektorów nośnych. Liniowa klasyfikacja SVM. Nieliniowa klasyfikacja SVM. Regresja SVM. Mechanizm działania. Ćwiczenia. 6. Drzewa decyzyjne. Uczenie i wizualizowanie drzewa decyzyjnego. Wyliczanie prognoz. Szacowanie prawdopodobieństw przynależności do klas. Algorytm uczący CART. Złożoność obliczeniowa. Wskaźnik Giniego czy entropia? Hiperparametry regularyzacyjne. Regresja. Niestabilność. Ćwiczenia. 7. Uczenie zespołowe i losowe lasy. Klasyfikatory głosujące. Agregacja i wklejanie. Rejony losowe i podprzestrzenie losowe. Losowe lasy. Wzmacnianie. Kontaminacja. Ćwiczenia. 8. Redukcja wymiarowości. Klątwa wymiarowości. Główne strategie redukcji wymiarowości. Analiza PCA. Jądrowa analiza PCA. Algorytm LLE. Inne techniki redukowania wymiarowości. Ćwiczenia. 9. Techniki uczenia nienadzorowanego. Analiza skupień. Mieszaniny gaussowskie. Ćwiczenia. CZĘŚĆ II. SIECI NEURONOWE I UCZENIE GŁĘBOKIE. 10. Wprowadzenie do sztucznych sieci neuronowych i ich implementacji z użyciem interfejsu Keras. Od biologicznych do sztucznych neuronów. Implementowanie perceptronów wielowarstwowych za pomocą interfejsu Keras. Dostrajanie hiperparametrów sieci neuronowej. Ćwiczenia. 11. Uczenie głębokich sieci neuronowych. Problemy zanikających/eksplodujących gradientów. Wielokrotne stosowanie gotowych warstw. Szybsze optymalizatory. Regularyzacja jako sposób zapobiegania przetrenowaniu. Podsumowanie i praktyczne wskazówki. Ćwiczenia. 12. Modele niestandardowe i uczenie za pomocą modułu TensorFlow. Krótkie omówienie modułu TensorFlow. Korzystanie z modułu TensorFlow jak z biblioteki NumPy. Dostosowywanie modeli i algorytmów uczenia. Funkcje i grafy modułu TensorFlow. Ćwiczenia. 13. Wczytywanie i wstępne przetwarzanie danych za pomocą modułu TensorFlow. Interfejs danych. Format TFRecord. Wstępne przetwarzanie cech wejściowych. TF Transform. Projekt TensorFlow Datasets (TFDS). Ćwiczenia. 14. Głębokie widzenie komputerowe za pomocą splotowych sieci neuronowych. Struktura kory wzrokowej. Warstwy splotowe. Warstwa łącząca. Architektury splotowych sieci neuronowych. Implementacja sieci ResNet-34 za pomocą interfejsu Keras. Korzystanie z gotowych modeli w interfejsie Keras. Gotowe modele w uczeniu transferowym. Klasyfikowanie i lokalizowanie. Wykrywanie obiektów. Segmentacja semantyczna. Ćwiczenia. 15. Przetwarzanie sekwencji za pomocą sieci rekurencyjnych i splotowych. Neurony i warstwy rekurencyjne. Uczenie sieci rekurencyjnych. Prognozowanie szeregów czasowych. Obsługa długich sekwencji. Ćwiczenia. 16. Przetwarzanie języka naturalnego za pomocą sieci rekurencyjnych i mechanizmów uwagi. Generowanie tekstów szekspirowskich za pomocą znakowej sieci rekurencyjnej. Analiza sentymentów. Sieć typu koder - dekoder służąca do neuronowego tłumaczenia maszynowego. Mechanizmy uwagi. Współczesne innowacje w modelach językowych. Ćwiczenia. 17. Uczenie reprezentacji za pomocą autokoderów i generatywnych sieci przeciwstawnych. Efektywne reprezentacje danych. Analiza PCA za pomocą niedopełnionego autokodera liniowego. Autokodery stosowe. Autokodery splotowe. Autokodery rekurencyjne. Autokodery odszumiające. Autokodery rzadkie. Autokodery wariacyjne. Generatywne sieci przeciwstawne. Ćwiczenia. 18. Uczenie przez wzmacnianie. Uczenie się optymalizowania nagród. Wyszukiwanie strategii. Wprowadzenie do narzędzia OpenAI Gym. Sieci neuronowe jako strategie. Ocenianie czynności: problem przypisania zasługi. Gradienty strategii. Procesy decyzyjne Markowa. Uczenie metodą różnic czasowych. Q-uczenie. Implementacja modelu Q-uczenia głębokiego. Odmiany Q-uczenia głębokiego. Biblioteka TF-Agents. Przegląd popularnych algorytmów RN. Ćwiczenia. 19. Wielkoskalowe uczenie i wdrażanie modeli TensorFlow. Eksploatacja modelu TensorFlow. Wdrażanie modelu na urządzeniu mobilnym lub wbudowanym. Przyspieszanie obliczeń za pomocą procesorów graficznych. Uczenie modeli za pomocą wielu urządzeń. Ćwiczenia. Dziękuję! A. Rozwiązania ćwiczeń. B. Lista kontrolna projektu uczenia maszynowego. C. Problem dualny w maszynach wektorów nośnych. D. Różniczkowanie automatyczne. E. Inne popularne architektury sieci neuronowych. F. Specjalne struktury danych. G. Grafy TensorFlow.
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 004 (2 egz.)
Książka
W koszyku
1. Podstawy Pythona dla DevOps: Instalowanie i uruchamianie Pythona; Programowanie proceduralne; Sterowanie przepływem kodu; Pętle while; Obsługa wyjątków; Obiekty wbudowane; Funkcje; Korzystanie z wyrażeń regularnych; Leniwe wartościowanie; Dodatkowe funkcjonalności IPythona; Ćwiczenia; 2. Automatyzacja zadań dotyczących plików i systemu plików: Odczytywanie i zapisywanie plików; Korzystanie z wyrażeń regularnych do wyszukiwania tekstu; Przetwarzanie dużych plików; Szyfrowanie tekstu; Moduł os; Zarządzanie plikami i katalogami za pomocą modułu os.path; Przeglądanie drzew katalogów za pomocą funkcji os.walk; Ścieżki jako obiekty modułu pathlib; 3. Praca w wierszu polecenia: Praca w środowisku powłoki; Tworzenie narzędzi wiersza polecenia; Studium przypadku: Turbodoładowanie Pythona za pomocą narzędzi wiersza polecenia; Ćwiczenia; 4. Przydatne narzędzia systemu Linux: Narzędzia dyskowe; Narzędzia sieciowe; Narzędzia do badania CPU; Korzystanie z Bash i ZSH; Łączenie możliwości Pythona z powłoką Bash i ZSH; Jednowierszowe skrypty w Pythonie; strace; Ćwiczenia; Zadanie związane ze studium przypadku; 5. Zarządzanie pakietami: Dlaczego tworzenie pakietów jest ważne?; Wytyczne dotyczące tworzenia pakietów; Wybór strategii; Sposoby tworzenia pakietów; Zarządzanie za pomocą systemd; Instalacja modułu; Ćwiczenia; Zadanie związane ze studium przypadku; 6. Continuous Integration i Continuous Deployment: Studium przypadku: konwersja źle utrzymywanej witryny bazującej na WordPressie do Hugo; Studium przypadku: instalacja aplikacji Python App Engine za pomocą mechanizmu Google Cloud Build; Studium przypadku: NFSOPS; 7. Monitorowanie i logowanie: Kluczowe pojęcia dotyczące budowania niezawodnych systemów; Niezmienne zasady DevOps; Monitorowanie; Oprzyrządowanie; Logowanie; Stos ELK; Ćwiczenia; Zadanie związane ze studium przypadku; 8. Pytest dla DevOps: Testowanie za pomocą frameworka pytest; Pierwsze kroki z pytest; Cechy frameworka pytest; Fikstury; Testowanie infrastruktury; Przykłady; Testowanie notatników Jupyter Notebooks z wykorzystaniem frameworka pytest; Ćwiczenia; Zadanie związane ze studium przypadku; 9. Chmura obliczeniowa: Podstawy chmury obliczeniowej; Rodzaje chmur obliczeniowych; Rodzaje usług chmury obliczeniowej; Infrastruktura jako kod; Ciągłe dostawy; Wirtualizacja i kontenery; Wyzwania i możliwości przetwarzania rozproszonego; Współbieżność, wydajność i zarządzanie procesami w dobie chmury obliczeniowej; Zarządzanie procesami; Wniosek; Ćwiczenia; Studia przypadków; 10. Infrastruktura jako kod: Klasyfikacja narzędzi automatyzacji infrastruktury; Dostarczanie ręczne; Automatyczne dostarczanie infrastruktury z wykorzystaniem systemu Terraform; Zautomatyzowane dostarczanie infrastruktury za pomocą systemu Pulumi; Ćwiczenia; 11. Technologie kontenerowe: Docker i Docker Compose: Czym jest kontener Dockera?; Tworzenie, budowanie, uruchamianie i usuwanie obrazów i kontenerów Dockera; Publikowanie obrazów Dockera w Rejestrze Dockera; Uruchamianie kontenera Dockera z tego samego obrazu na innym hoście; Uruchamianie wielu kontenerów Dockera za pomocą systemu Docker Compose; Przenoszenie usług docker-compose do nowego hosta i systemu operacyjnego; Ćwiczenia; 12. Orkiestracja kontenerów: Kubernetes: Przegląd pojęć związanych z systemem Kubernetes; Korzystanie z systemu Kompose do tworzenia manifestów Kubernetesa na podstawie pliku docker-compose.yaml; Instalacja manifestów Kubernetesa w lokalnym klastrze Kubernetesa z wykorzystaniem minikube; Uruchomienie klastra GKE Kubernetes w GCP za pomocą Pulumi; Instalacja przykładowej aplikacji Flask do GKE; Instalacja wykresów Helm Prometheus i Grafana; Niszczenie klastra GKE; Ćwiczenia; 13. Technologie bezserwerowe: Wdrażanie tej samej funkcji Pythona do chmur dostawców z Wielkiej Trójki; Wdrażanie funkcji Pythona do platform FaaS działających w trybie self-hosted; Konfigurowanie tabeli DynamoDB, funkcji Lambda i metod API Gateway za pomocą AWS CDK; Ćwiczenia; 14. MLOps i inżynieria uczenia maszynowego: Czym jest uczenie maszynowe?; Ekosystem uczenia maszynowego w Pythonie; Platformy uczenia maszynowego w chmurze; Model dojrzałości uczenia maszynowego; Model Sklearn Flask z wykorzystaniem systemów Kubernetes i Docker; Sklearn Flask z wykorzystaniem Kubernetesa i Dockera; Ćwiczenia; Zadanie związane ze studium przypadku; Pytania i zadania kontrolne; 15. Inżynieria danych: Small data; Zapis do pliku; Odczyt z pliku; Potok generatora używany w celu czytania i przetwarzania wierszy; Korzystanie z formatu YAML; Big Data; Narzędzia Big Data, komponenty i platformy; Pobieranie strumieni danych w czasie rzeczywistym; Studium przypadku: budowanie własnego potoku danych; Inżynieria danych w trybie bezserwerowym; Wnioski; Ćwiczenia; Zadanie związane ze studium przypadku; 16. Historie wojenne DevOps i wywiady: Studio filmowe nie może produkować filmów; Studio gier nie może opublikować gry; Uruchomienie skryptów Pythona zajmuje 60 sekund; Gaszenie pożarów za pomocą pamięci podręcznej i inteligentnej instrumentacji; Automatyzacja zabierze Ci pracę!; Antywzorce DevOps; Wywiady; Zalecenia; Ćwiczenia; Wyzwania; Projekt końcowy.
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 004 (3 egz.)
Pozycja została dodana do koszyka. Jeśli nie wiesz, do czego służy koszyk, kliknij tutaj, aby poznać szczegóły.
Nie pokazuj tego więcej