Uczenie się maszyn
Sortowanie
Źródło opisu
Książki
(8)
Forma i typ
Książki
(8)
Publikacje fachowe
(6)
Poradniki i przewodniki
(1)
Dostępność
dostępne
(7)
tylko na miejscu
(1)
Placówka
Wypożyczalnia
(7)
Czytelnia
(1)
Autor
Sawka Krzysztof
(2)
Walczak Tomasz
(2)
Fenner Mark E
(1)
Grażyński Andrzej
(1)
Géron Aurélien
(1)
Hubisz Jakub
(1)
Hurbans Rishal
(1)
Janusz Jacek
(1)
Koronacki Jacek
(1)
Mirjalili Vahid
(1)
Moroney Laurence
(1)
Natingga Dávid
(1)
Ponteves Hadelin de
(1)
Raschka Sebastian
(1)
Wójcicki łukasz
(1)
Ćwik Jan
(1)
Rok wydania
2020 - 2024
(6)
2010 - 2019
(1)
2000 - 2009
(1)
Okres powstania dzieła
2001-
(4)
Kraj wydania
Polska
(8)
Język
polski
(8)
Temat
Przedsiębiorstwo
(1424)
Zarządzanie
(674)
Unia Europejska
(641)
Polska
(633)
Samorząd terytorialny
(532)
Uczenie się maszyn
(-)
Środki masowego przekazu
(426)
Kadry
(417)
Marketing
(414)
Gospodarka
(406)
Banki
(383)
Organizacja
(370)
Prawo pracy
(358)
Internet
(351)
Komunikacja społeczna
(333)
Globalizacja
(321)
Integracja europejska
(317)
Prawo
(310)
Nauczanie początkowe
(298)
Postępowanie administracyjne
(284)
Dziecko
(281)
Polityka
(263)
Rodzina
(261)
Prawa człowieka
(256)
Prawo administracyjne
(252)
Praca
(247)
Unia Europejska (UE)
(244)
Prawo cywilne
(243)
Zarządzanie strategiczne
(243)
Pedagogika
(242)
Administracja
(241)
Finanse
(237)
Prawo karne
(237)
Język angielski
(236)
Szkolnictwo
(235)
Podatek
(234)
Kultura
(233)
Nauczyciele
(233)
Państwo
(232)
Psychologia
(232)
Polityka społeczna
(230)
Finanse publiczne
(225)
Rachunkowość
(218)
Społeczeństwo
(218)
Innowacje
(215)
Socjologia
(214)
Nauczanie
(211)
Szkolnictwo wyższe
(211)
Reklama
(210)
Zarządzanie jakością
(210)
Opieka społeczna
(209)
Wychowanie
(209)
Rynek pracy
(206)
Budżety terenowe
(201)
Kobieta
(200)
Menedżerowie
(199)
Nauczanie zintegrowane
(199)
Młodzież
(198)
Nieruchomości
(194)
Konkurencja
(193)
Public relations
(192)
Prawo międzynarodowe
(191)
Prawo wspólnotowe europejskie
(191)
Przedsiębiorstwa małe i średnie
(191)
Osobowość
(186)
Konsumenci (ekon.)
(182)
Zatrudnienie
(181)
Bezrobocie
(179)
Społeczeństwo informacyjne
(178)
Ochrona środowiska
(176)
Prawo karne procesowe
(176)
Rynek finansowy
(175)
Rynek kapitałowy
(173)
Prawo Unii Europejskiej
(169)
Prawo gospodarcze
(165)
Umowa
(157)
Filozofia
(155)
Kształcenie
(155)
Logistyka gospodarcza
(149)
Turystyka
(149)
Sądownictwo
(148)
Zarządzanie wiedzą
(146)
Decyzje
(145)
Papiery wartościowe
(145)
Polityka międzynarodowa
(145)
Oświata
(144)
Ubezpieczenia społeczne
(143)
Demokracja
(140)
Stosunki interpersonalne
(138)
Płaca
(136)
Służba zdrowia
(135)
Psychologia społeczna
(134)
Postępowanie cywilne
(132)
Prawo konstytucyjne
(132)
Terroryzm
(132)
Inwestycje
(131)
Prawo autorskie
(128)
Język polski
(125)
Motywacja pracy
(119)
Samorząd gminny
(119)
Zarządzanie zasobami ludzkimi (HRM)
(118)
Gatunek
Podręcznik
(5)
Opracowanie
(1)
Poradnik
(1)
Dziedzina i ujęcie
Informatyka i technologie informacyjne
(7)
8 wyników Filtruj
Brak okładki
Książka
W koszyku
Algorytmy Data Science : siedmiodniowy przewodnik / Dávid Natingga ; tłum. Andrzej Grażyński. - Wyd. 2. - Gliwice : Helion , cop. 2019. - 206, [2] s. : rys., tab., wykresy, wzory ; 24 cm.
Rozdział 1. Klasyfikacja na podstawie najbliższego sąsiedztwa. Subiektywne odczuwanie temperatury. Implementacja algorytmu k najbliższych sąsiadów. Dane wejściowe. Wynik klasyfikacji. Wizualizacja. Mapa Włoch przykład doboru wartości k. Analiza. Skalowanie danych prognozowanie statusu własności. Analiza. Nieeuklidesowe metryki odległości punktów klasyfikowanie tekstów. Analiza. Klasyfikowania tekstów ciąg dalszy wielowymiarowy algorytm k-NN. Analiza. Podsumowanie. Problemy. Subiektywne odczuwanie temperatury. Mapa Włoch przykład doboru wartości k. Status własności. Analiza. Rozdział 2. Naiwny klasyfikator bayesowski. Testy medyczne podstawowe zastosowanie twierdzenia Bayesa. Analiza. Podstawowe twierdzenie Bayesa i jego rozszerzenie. Twierdzenie Bayesa. Dowód. Rozszerzone twierdzenie Bayesa. Dowód. Zagramy w szachy? niezależne zdarzenia warunkujące. Analiza. Implementacja naiwnego klasyfikatora bayesowskiego. Dane wejściowe. Wynik. Zagramy w szachy? częściowo zależne zdarzenia warunkujące. Analiza. Dane wejściowe. Wynik. Chłopak czy dziewczyna? twierdzenie Bayesa dla ciągłych zmiennych losowych. Analiza. Podsumowanie. Problemy. Analiza. Rozdział 3. Drzewa decyzyjne. Pływamy? reprezentowanie danych w postaci drzewa decyzyjnego. Elementy teorii informacji. Entropia informacyjna. Przykład losowe rzucanie monetą. Definicja. Zysk informacyjny. Pływamy? obliczanie zysku informacyjnego. Algorytm ID3 konstruowanie drzewa decyzyjnego. Pływamy? budowanie drzewa decyzyjnego. Implementacja w języku Python. Dane wejściowe. Wynik. Klasyfikowanie danych za pomocą drzew decyzyjnych. Przykład pływamy czy nie? Przykład gra w szachy pod chmurką. Analiza. Dane wejściowe. Wynikowe drzewo decyzyjne. Klasyfikacja. Na zakupy przykład niespójnych danych. Analiza. Podsumowanie. Problemy. Analiza. Rozdział 4. Lasy losowe. Ogólne zasady konstruowania lasów losowych. Pływamy? klasyfikacja za pomocą lasu losowego. Analiza. Konstruowanie lasu losowego. Losowe drzewo decyzyjne nr 0. Losowe drzewo decyzyjne nr 1. Wynikowy las losowy. Klasyfikowanie cechy na podstawie lasu losowego. Implementacja algorytmu konstruowania lasu losowego. Dane wejściowe. Wynik. Przykład zagramy w szachy? Analiza. Konstruowanie lasu losowego. Losowe drzewo decyzyjne nr 0. Losowe drzewa decyzyjne nr 1, 2 i 3. Wynikowy las losowy. Klasyfikacja w drodze głosowania. Dane wejściowe. Wynik. Idziemy na zakupy? wnioskowanie z niespójnych danych i miara wiarygodności wyniku. Analiza. Dane wejściowe. Wynik. Podsumowanie. Problemy. Analiza. Dane wejściowe. Wynik. Rozdział 5. Klasteryzacja. Dochód gospodarstwa domowego niski czy wysoki? Algorytm k-średnich. Początkowy zbiór centroidów. Wyznaczanie centroidu klastera. Przykład wykorzystanie algorytmu k-średnich do klasyfikacji dochodów. Klasyfikowanie przez klasteryzację prognozowanie płci nieznanej osoby. Analiza. Implementacja algorytmu k-średnich. Dane wejściowe. Wynik grupowania. Status własności dobór optymalnej liczby klasterów. Analiza. Dane wejściowe. Wynik podział między dwa klastery. Wynik podział między trzy klastery. Wynik podział między cztery klastery. Wynik podział między pięć klasterów. Klasyfikowanie dokumentów semantyczne znaczenie klasteryzacji. Analiza. Dane wejściowe. Wynik podział między dwa klastery. Wynik podział między trzy klastery. Wynik podział między pięć klasterów. Podsumowanie. Problemy. Analiza. Dane wejściowe. Dwa klastery. Trzy klastery. Cztery klastery. Pięć klasterów. Wybór optymalnej liczby klasterów przy użyciu walidacji krzyżowej. Rozdział 6. Analiza regresji. Konwersja temperatur regresja liniowa dla danych doskonałych. Rozwiązanie analityczne. Metoda najmniejszych kwadratów w regresji liniowej. Implementacja analizy regresji liniowej w Pythonie. Kod programu. Wynik. Wizualizacja. Regresja dla danych pomiarowych prognozowanie wagi na podstawie wzrostu. Analiza. Kod programu. Wynik. Metoda spadku gradientowego i jej implementacja. Szczegóły algorytmu. Implementacja w Pythonie. Dane wejściowe. Wynik. Wizualizacja porównanie z metodą analityczną. Przewidywanie czasu przelotu na podstawie odległości. Analiza. Kod programu. Wynik. Obliczenia balistyczne model nieliniowy. Analiza. Kod programu. Wynik. Podsumowanie. Problemy. Analiza. Kod programu. Wynik. Wizualizacja. Rozdział 7. Analiza szeregów czasowych. Zysk w biznesie analiza trendu. Analiza. Kod programu. Wynik. Wizualizacja. Konkluzja. Sprzedaż w sklepie internetowym analiza sezonowości. Analiza. Analiza trendu. Kod programu. Wynik. Wizualizacja. Analiza sezonowości. Wizualizacja. Podsumowanie. Problemy. Analiza. Kod programu. Wynik. Wizualizacja. Dodatek A Podstawy języka Python. Przykład. Komentarze. Typy danych. Int. Przykład example02_int.py. Wynik. Float. Przykład example03_float.py. Wynik. Napis. Przykład example04_string.py. Wynik. Krotka. Przykład example05_tuple.py. Wynik. Lista. Przykład example06_list.py. Wynik. Zbiór. Przykład example07_set.py. Wynik. Słownik. Przykład example08_dictionary.py. Wynik. Przepływ sterowania. Instrukcje warunkowe. Przykład example09_if_else_elif.py. Wynik. Pętla for. Przykład example10_for_loop_range.py. Wynik. Przykład example11_for_loop_list.py. Wynik. Przykład example12_for_loop_set.py. Wynik. Pętla while. Przykład example13_while_loop.py. Wynik. Instrukcje break i continue. Przykład example14_break_continue.py. Wynik. Funkcje. Przykład example15_function.py. Wynik. Wejście-wyjście programu. Argumenty wywołania programu. Przykład example16_arguments.py. Wynik. Operacje na plikach. Dodatek B. Statystyka. Podstawowe koncepcje. Notacja. Podstawowe pojęcia. Wnioskowanie bayesowskie. Rozkład normalny Gaussa. Walidacja krzyżowa. Testowanie A/B. Dodatek C. Słownik pojęć, algorytmów i metod Data Science.
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 004 (2 egz.)
Książka
W koszyku
1. Intuicyjne omówienie sztucznej inteligencji Czym jest sztuczna inteligencja? Krótka historia sztucznej inteligencji. Rodzaje problemów i modele ich rozwiązywania. Intuicyjne omówienie zagadnień z obszaru sztucznej inteligencji. Zastosowania algorytmów sztucznej inteligencji. 2. Podstawy przeszukiwania. Czym jest planowanie i przeszukiwanie? Koszt obliczeń - powód stosowania inteligentnych algorytmów. Jakie problemy można rozwiązywać za pomocą algorytmów przeszukiwania? Reprezentowanie stanu - tworzenie platformy do reprezentowania przestrzeni problemowej i rozwiązań. Przeszukiwanie siłowe - szukanie rozwiązań po omacku. Przeszukiwanie wszerz - najpierw wszerz, potem w głąb. Przeszukiwanie w głąb - najpierw w głąb, potem wszerz. Zastosowania siłowych algorytmów przeszukiwania. Opcjonalne informacje - rodzaje grafów. Opcjonalne informacje - inne sposoby reprezentowania grafów. 3. Inteligentne przeszukiwanie. Definiowanie heurystyk - projektowanie hipotez opartych na wiedzy. Przeszukiwanie sterowane - szukanie rozwiązań z wykorzystaniem wskazówek. Przeszukiwanie antagonistyczne - szukanie rozwiązań w zmiennym środowisku. 4. Algorytmy ewolucyjne. Czym jest ewolucja? Problemy, jakie można rozwiązywać za pomocą algorytmów ewolucyjnych. Algorytm genetyczny - cykl życia. Kodowanie przestrzeni rozwiązań. Tworzenie populacji rozwiązań. Pomiar przystosowania osobników w populacji. Wybór rodziców na podstawie przystosowania. Generowanie osobników na podstawie rodziców. Tworzenie populacji następnego pokolenia. Konfigurowanie parametrów algorytmu genetycznego. Zastosowania algorytmów ewolucyjnych. 5. Zaawansowane techniki ewolucyjne. Cykl życia algorytmu ewolucyjnego. Różne strategie selekcji. Kodowanie z użyciem liczb rzeczywistych. Kodowanie porządkowe - korzystanie z sekwencji. Kodowanie za pomocą drzewa - praca z hierarchiami. Często spotykane rodzaje algorytmów ewolucyjnych. Słowniczek pojęć związanych z algorytmami ewolucyjnymi. Inne zastosowania algorytmów ewolucyjnych. 6. Inteligencja rozproszona: mrówki. Czym jest inteligencja rozproszona? Problemy dostosowane do algorytmu mrówkowego. Reprezentowanie stanu - jak zapisać ścieżki i mrówki? Cykl życia algorytmu mrówkowego. Zastosowania algorytmu mrówkowego. 7. Inteligencja rozproszona: cząstki. Na czym polega optymalizacja rojem cząstek? Problemy optymalizacyjne - bardziej techniczne spojrzenie. Problemy, jakie można rozwiązać za pomocą optymalizacji rojem cząstek. Reprezentowanie problemu - jak wyglądają cząstki? Przebieg działania algorytmu optymalizacji rojem cząstek. Zastosowania algorytmów optymalizacji rojem cząstek. 8. Uczenie maszynowe. Czym jest uczenie maszynowe? Problemy, jakie można rozwiązywać za pomocą uczenia maszynowego. Przebieg uczenia maszynowego. Klasyfikowanie z użyciem drzew decyzyjnych. Inne popularne algorytmy uczenia maszynowego. Zastosowania algorytmów uczenia maszynowego. 9. Sztuczne sieci neuronowe. Czym są sztuczne sieci neuronowe? Perceptron: reprezentacja neuronu. Definiowanie sieci ANN. Propagacja w przód - używanie wyuczonej sieci ANN. Propagacja wsteczna - uczenie sieci ANN. Możliwe funkcje aktywacji. Projektowanie sztucznych sieci neuronowych. Typy i zastosowania sieci ANN. 10. Uczenie przez wzmacnianie z użyciem algorytmu Q-learning. Czym jest uczenie przez wzmacnianie? Problemy rozwiązywane za pomocą uczenia przez wzmacnianie. Przebieg uczenia przez wzmacnianie. Deep learning w uczeniu przez wzmacnianie. Zastosowania uczenia przez wzmacnianie.
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 004 (1 egz.)
Brak okładki
Książka
W koszyku
Zawiera: R. 1 Umożliwianie komputerom uczenia się z danych: Tworzenie inteligentnych maszyn służących do przekształcania danych w wiedzę; Trzy różne rodzaje uczenia maszynowego; Wprowadzenie do podstawowej terminologii i notacji; Strategia tworzenia systemów uczenia maszynowego; Wykorzystywanie środowiska Python do uczenia maszynowego; Podsumowanie. R. 2 Trenowanie prostych algorytmów uczenia maszynowego w celach klasyfikacji: Sztuczne neurony - rys historyczny początków uczenia maszynowego; Implementacja algorytmu uczenia perceptronu w Pythonie; Adaptacyjne neurony liniowe i zbieżność uczenia; Podsumowanie. R. 3 Stosowanie klasyfikatorów uczenia maszynowego za pomocą biblioteki scikit-learn: Wybór algorytmu klasyfikującego; Pierwsze kroki z biblioteką scikit-learn - uczenie perceptronu; Modelowanie prawdopodobieństwa przynależności do klasy za pomocą regresji logistycznej; Wyznaczanie maksymalnego marginesu za pomocą maszyn wektorów nośnych; Rozwiązywanie nieliniowych problemów za pomocą jądra SVM; Uczenie drzew decyzyjnych; Algorytm k-najbliższych sąsiadów - model leniwego uczenia; Podsumowanie. R. 4 Tworzenie dobrych zestawów danych uczących - wstępne przetwarzanie danych: Kwestia brakujących danych; Przetwarzanie danych kategorialnych; Rozdzielanie zestawu danych na oddzielne podzbiory uczący i testowy; Skalowanie cech; Dobór odpowiednich cech; Ocenianie istotności cech za pomocą algorytmu losowego lasu; Podsumowanie. R. 5 Kompresja danych poprzez redukcję wymiarowości: Nienadzorowana redukcja wymiarowości za pomocą analizy głównych składowych; Nadzorowana kompresja danych za pomocą liniowej analizy dyskryminacyjnej; Jądrowa analiza głównych składowych jako metoda odwzorowywania nierozdzielnych liniowo klas; Podsumowanie. R. 6 Najlepsze metody oceny modelu i strojenie parametryczne: Usprawnianie cyklu pracy za pomocą kolejkowania; Stosowanie k-krotnego sprawdzianu krzyżowego w ocenie skuteczności modelu; Sprawdzanie algorytmów za pomocą krzywych uczenia i krzywych walidacji; Dostrajanie modeli uczenia maszynowego za pomocą metody przeszukiwania siatki; Przegląd wskaźników oceny skuteczności; Podsumowanie. R. 7 Łączenie różnych modeli w celu uczenia zespołowego: Uczenie zespołów; Łączenie klasyfikatorów za pomocą algorytmu głosowania większościowego; Agregacja - tworzenie zespołu klasyfikatorów za pomocą próbek początkowych; Usprawnianie słabych klasyfikatorów za pomocą wzmocnienia adaptacyjnego; Podsumowanie. R. 8 Wykorzystywanie uczenia maszynowego w analizie sentymentów: Przygotowywanie zestawu danych IMDb movie review do przetwarzania tekstu; Wprowadzenie do modelu worka słów; Uczenie modelu regresji logistycznej w celu klasyfikowania tekstu; Praca z większą ilością danych - algorytmy sieciowe i uczenie pozardzeniowe; Modelowanie tematyczne za pomocą alokacji ukrytej zmiennej Dirichleta; Podsumowanie. R. 9 Wdrażanie modelu uczenia maszynowego do aplikacji sieciowej: Serializacja wyuczonych estymatorów biblioteki scikit-learn; Konfigurowanie bazy danych SQLite; Tworzenie aplikacji sieciowej za pomocą środowiska Flask; Przekształcanie klasyfikatora recenzji w aplikację sieciową; Umieszczanie aplikacji sieciowej na publicznym serwerze; Podsumowanie. R. 10 Przewidywanie ciągłych zmiennych docelowych za pomocą analizy regresywnej: Wprowadzenie do regresji liniowej; Zestaw danych Housing; Implementacja modelu regresji liniowej wykorzystującego zwykłą metodę najmniejszych kwadratów; Uczenie odpornego modelu regresywnego za pomocą algorytmu RANSAC; Ocenianie skuteczności modeli regresji liniowej; Stosowanie regularyzowanych metod regresji; Przekształcanie modelu regresji liniowej w krzywą - regresja wielomianowa; Analiza nieliniowych relacji za pomocą algorytmu losowego lasu; Podsumowanie. R. 11 Praca z nieoznakowanymi danymi - analiza skupień: Grupowanie obiektów na podstawie podobieństwa przy użyciu algorytmu centroidów; Organizowanie skupień do postaci drzewa skupień; Wyznaczanie rejonów o dużej gęstości za pomocą algorytmu DBSCAN; Podsumowanie. R. 12 Implementowanie wielowarstwowej sieci neuronowej od podstaw: Modelowanie złożonych funkcji przy użyciu sztucznych sieci neuronowych; Klasyfikowanie pisma odręcznego; Trenowanie sztucznej sieci neuronowej; Zbieżność w sieciach neuronowych; Jeszcze słowo o implementacji sieci neuronowej; Podsumowanie. R. 13 Równoległe przetwarzanie sieci neuronowych za pomocą biblioteki TensorFlow: Biblioteka TensorFlow a skuteczność uczenia; Pierwsze kroki z biblioteką TensorFlow; Tworzenie potoków wejściowych za pomocą tf.data, czyli interfejsu danych TensorFlow; Tworzenie modelu sieci neuronowej za pomocą modułu TensorFlow; Dobór funkcji aktywacji dla wielowarstwowych sieci neuronowych; Podsumowanie. R. 14 Czas na szczegóły - mechanizm działania biblioteki TensorFlow: Cechy kluczowe TensorFlow; Grafy obliczeniowe TensorFlow: migracja do wersji TensorFlow 2; Obiekty Variable służące do przechowywania i aktualizowania parametrów modelu; Obliczanie gradientów za pomocą różniczkowania automatycznego i klasy GradientTape; Upraszczanie implementacji popularnych struktur za pomocą interfejsu Keras; Estymatory TensorFlow; Podsumowanie. R. 15 Klasyfikowanie obrazów za pomocą głębokich splotowych sieci neuronowych: Podstawowe elementy splotowej sieci neuronowej; Implementowanie sieci CNN; Implementacja głębokiej sieci splotowej za pomocą biblioteki TensorFlow; Klasyfikowanie płci na podstawie zdjęć twarzy za pomocą sieci splotowej; Podsumowanie. R. 16 Modelowanie danych sekwencyjnych za pomocą rekurencyjnych sieci neuronowych: Wprowadzenie do danych sekwencyjnych; Sieci rekurencyjne służące do modelowania sekwencji; Implementowanie wielowarstwowej sieci rekurencyjnej przy użyciu biblioteki TensorFlow do modelowania sekwencji; Przetwarzanie języka za pomocą modelu transformatora; Podsumowanie. R. 17. Generatywne sieci przeciwstawne w zadaniach syntetyzowania nowych danych: Wprowadzenie do generatywnych sieci przeciwstawnych; Implementowanie sieci GAN od podstaw; Poprawianie jakości syntetyzowanych obrazów za pomocą sieci GAN: splotowej i Wassersteina; Inne zastosowania modeli GAN; Podsumowanie. R. 18 Uczenie przez wzmacnianie jako mechanizm podejmowania decyzji w skomplikowanych środowiskach: Wprowadzenie: uczenie z doświadczenia; Podstawy teoretyczne uczenia przez wzmacnianie; Algorytmy uczenia przez wzmacnianie; Implementacja naszego pierwszego algorytmu uczenia przez wzmacnianie; Podsumowanie rozdziału i książki.
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 004 (2 egz.)
Książka
W koszyku
Statystyczne systemy uczące się / Jacek Koronacki, Jan Ćwik. - Wyd. 2. - Warszawa : Akademicka Oficyna Wydawnicza EXIT, 2008. - 327 s. : rys., tab., wykr. ; 24 cm.
1. Liniowe metody klasyfikacji. 2. Metody klasyfikacji oparte na rozkładach prawdopodobieństwa. 3. Metody klasyfikacji oparte na nieparametrycznej estymacji. 4. Drzewa klasyfikacyjne i rodziny klasyfikatorów. 5. Analiza regresji. 6. Uogólnienia metod liniowych. 7. Systemy uczące się pod nadzorem - podsumowanie, uwagi dodatkowe. 8. Metody rzutowania, wykrywanie zmiennych ukrytych. 9. Analiza skupień.
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Czytelnia
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 004 (1 egz.)
Książka
W koszyku
Rozdział 1. Witamy w świecie robotów. Rozpoczęcie przygody z AI. Cztery różne modele AI. Dokąd może Cię zaprowadzić nauka AI? Podsumowanie. Rozdział 2. Poznaj narzędzia AI. Strona GitHuba. Colaboratory. Podsumowanie. Rozdział 3. Podstawy języka Python - naucz się kodować w Pythonie. Wyświetlanie tekstu. Zmienne i operacje. Listy i tablice. Instrukcje warunkowe if. Pętle for i while. Funkcje. Klasy i obiekty. Podsumowanie. Rozdział 4. Podstawowe techniki AI. Co to jest uczenie ze wzmacnianiem? Pięć zasad Reinforcement Learning. Podsumowanie. Rozdział 5. Twój pierwszy model AI - uważaj na bandytów! Problem wielorękiego bandyty. Model próbkowania Thompsona. Podsumowanie. Rozdział 6. AI w sprzedaży i reklamie - sprzedawaj jak Wilk z AI Street. Problem do rozwiązania. Budowanie środowiska do przeprowadzenia symulacji. Rozwiązanie AI i odświeżenie umysłu. Implementacja. Podsumowanie. Rozdział 7. Witamy w Q-learningu. Labirynt. Cały proces Q-learningu. Podsumowanie. Rozdział 8. AI w logistyce - roboty w magazynie. Budowanie środowiska. Implementacja. Podsumowanie. Rozdział 9. Zostań ekspertem od sztucznego mózgu - głębokie Q-learning. Przewidywanie cen domów. Teoria głębokiego uczenia. Jak działają sieci neuronowe? Głębokie uczenie. Podsumowanie. Rozdział 10. Sztuczna inteligencja dla pojazdów autonomicznych - zbuduj samochód samojezdny. Budowanie środowiska. Przypomnienie rozwiązania AI. Implementacja. Prezentacja. Podsumowanie. Rozdział 11. AI dla biznesu - minimalizuj koszty dzięki głębokiemu Q-learningowi. Problem do rozwiązania. Budowanie środowiska. Rozwiązanie AI. Demo. Podsumowanie - ogólny schemat AI. Podsumowanie. Rozdział 12. Głębokie konwolucyjne Q-learning. Do czego służą sieci CNN? Jak działają CNN? Głębokie konwolucyjne Q-learning. Podsumowanie. Rozdział 13. AI dla gier wideo - zostań mistrzem Snake'a. Problem do rozwiązania. Tworzenie środowiska. Rozwiązanie AI. Implementacja. Demo. Podsumowanie. Rozdział 14. Podsumowanie. Podsumowanie - ogólny schemat AI. Odkrywanie, co czeka Cię dalej w AI.
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 004 (2 egz.)
Książka
W koszyku
CZĘŚĆ I. Tworzenie modeli. Rozdział 1. Wprowadzenie do biblioteki TensorFlow. Czym jest uczenie maszynowe? Ograniczenia programowania tradycyjnego. Od programowania do uczenia. Czym jest TensorFlow? Użycie platformy TensorFlow. Pierwsze kroki z uczeniem maszynowym. Podsumowanie. Rozdział 2. Wprowadzenie do widzenia komputerowego. Rozpoznawanie elementów odzieży. Neurony widzenia komputerowego. Projektowanie sieci neuronowej. Trenowanie sieci neuronowej. Analiza wyników modelu. Trenowanie przez dłuższy czas nadmierne dopasowanie. Zakończenie trenowania. Podsumowanie. Rozdział 3. Bardziej zaawansowane zagadnienie: wykrywanie cech w obrazach. Konwolucje. Pooling. Implementacja konwolucyjnych sieci neuronowych. Analiza sieci konwolucyjnej. Tworzenie konwolucyjnej sieci neuronowej rozróżniającej konie i ludzi. Generowanie dodatkowych obrazów. Uczenie transferowe. Klasyfikowanie wieloklasowe. Regularyzacja dropout. Podsumowanie. Rozdział 4. Korzystanie za pomocą biblioteki TensorFlow Datasets z publicznie dostępnych zbiorów danych. Pierwsze kroki z TFDS. Użycie biblioteki TFDS z modelami Keras. Użycie funkcji mapowania do generowania sztucznych danych. Korzystanie z niestandardowych podzbiorów. Czym jest TFRecord? Użycie procesu ETL do zarządzania danymi w TensorFlow. Podsumowanie. Rozdział 5. Wprowadzenie do przetwarzania języka naturalnego. Zamiana języka na liczby. Usuwanie słów nieinformatywnych i porządkowanie tekstu. Obsługa realnych źródeł danych. Podsumowanie. Rozdział 6. Programowa analiza emocji za pomocą osadzeń. Ustalanie znaczenia słów. Osadzenia w bibliotece TensorFlow. Wizualizacja osadzeń. Korzystanie ze wstępnie wytrenowanych osadzeń przy użyciu TensorFlow Hub. Podsumowanie. Rozdział 7. Użycie rekurencyjnych sieci neuronowych do przetwarzania języka naturalnego. Podstawy rekurencji. Zastosowanie rekurencji w przetwarzaniu języka naturalnego. Tworzenie klasyfikatora tekstu przy użyciu rekurencyjnych sieci neuronowych. Użycie wstępnie wytrenowanych osadzeń w rekurencyjnych sieciach neuronowych. Podsumowanie. Rozdział 8. Użycie biblioteki TensorFlow do generowania tekstu. Zamiana sekwencji na sekwencje wejściowe. Tworzenie modelu. Generowanie tekstu. Poszerzenie zbioru danych. Zmiana architektury modelu. Ulepszenie danych. Kodowanie oparte na znakach. Podsumowanie. Rozdział 9. Sekwencje i dane szeregów czasowych. Wspólne atrybuty szeregów czasowych. Metody prognozowania szeregów czasowych. Podsumowanie. Rozdział 10. Tworzenie modeli uczenia maszynowego do prognozowania sekwencji. Tworzenie okna zbioru danych. Tworzenie sieci DNN i jej trenowanie w celu dopasowania do danych sekwencji. Ocena wyników działania sieci DNN. Analiza ogólnej prognozy. Dostrajanie współczynnika uczenia. Dostrajanie hiperparametrów za pomocą narzędzia Keras Tuner. Podsumowanie. Rozdział 11. Użycie metod konwolucyjnych i rekurencyjnych w modelowaniu sekwencji. Użycie konwolucji z danymi sekwencyjnymi. Korzystanie z danych pogodowych NASA. Używanie sieci RNN do modelowania sekwencji. Użycie innych metod rekurencyjnych. Użycie dropoutu. Użycie dwukierunkowych sieci RNN. Podsumowanie. CZĘŚĆ II. Używanie modeli. Rozdział 12. Wprowadzenie do TensorFlow Lite. Czym jest TensorFlow Lite? Przykład: utworzenie modelu i przekonwertowanie go do formatu TensorFlow Lite. Przykład: wykorzystanie uczenia transferowego w klasyfikatorze obrazów i jego konwersja na format TensorFlow Lite. Przykład: wykorzystanie uczenia transferowego w klasyfikatorze obrazów. Podsumowanie. Rozdział 13. Użycie TensorFlow Lite w systemie Android. Czym jest Android Studio? Tworzenie pierwszej aplikacji opartej na TensorFlow Lite dla systemu Android. Coś więcej niż Witaj, świecie! przetwarzanie obrazów. Przykładowe aplikacje wykorzystujące bibliotekę TensorFlow Lite. Podsumowanie. Rozdział 14. Użycie TensorFlow Lite w systemie iOS. Tworzenie pierwszej aplikacji TensorFlow Lite za pomocą Xcode. Coś więcej niż Witaj, świecie! przetwarzanie obrazów. Przykładowe aplikacje wykorzystujące bibliotekę TensorFlow Lite. Podsumowanie. Rozdział 15. Wprowadzenie do TensorFlow.js. Czym jest TensorFlow.js? Instalowanie i używanie środowiska programistycznego Brackets. Tworzenie pierwszego modelu wykorzystującego bibliotekę TensorFlow.js. Tworzenie klasyfikatora irysów. Podsumowanie. Rozdział 16. Rozwiązywanie problemów z zakresu widzenia komputerowego za pomocą biblioteki TensorFlow.js. Uwagi dla programistów używających biblioteki TensorFlow dotyczące języka JavaScript. Tworzenie konwolucyjnej sieci neuronowej za pomocą języka JavaScript. Stosowanie wywołań zwrotnych do wizualizacji. Trenowanie za pomocą zbioru MNIST. Przeprowadzanie wnioskowania dla obrazów przy użyciu biblioteki TensorFlow.js. Podsumowanie. Rozdział 17. Konwersja modeli z Pythona do JavaScriptu i ponowne ich użycie. Konwersja modeli z Pythona do JavaScriptu. Użycie wcześniej przekonwertowanych modeli. Podsumowanie. Rozdział 18. Wykorzystanie uczenia transferowego w języku JavaScript. Uczenie transferowe przy użyciu biblioteki MobileNet. Uczenie transferowe przy użyciu repozytorium TensorFlow Hub. Użycie modeli z portalu TensorFlow.org. Podsumowanie. Rozdział 19. Wdrażanie modeli za pomocą usługi TensorFlow Serving. Czym jest TensorFlow Serving? Instalowanie systemu TensorFlow Serving. Tworzenie i udostępnianie modelu. Podsumowanie. Rozdział 20. Sztuczna inteligencja a etyka, uczciwość i prywatność. Uczciwość w procesie programowania. Uczciwość w procesie uczenia maszynowego. Narzędzia związane z kwestiami uczciwości. Uczenie federacyjne. Zasady firmy Google dotyczące sztucznej inteligencji. Podsumowanie. Rysunki.
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 004 (2 egz.)
Książka
W koszyku
CZĘŚĆ I. PIERWSZE KROKI. Rozdział 1. Podyskutujmy o uczeniu się. 1.1. Witaj. 1.2. Zakres, terminologia, predykcja i dane. 1.3. Rola maszyny w uczeniu maszynowym. 1.4. Przykład systemów uczących się. 1.5. Ocena systemów uczących się. 1.6. Proces budowania systemów uczących się. 1.7. Założenia i realia uczenia się. 1.8. Zakończenie rozdziału. Rozdział 2. Kontekst techniczny. 2.1. O naszej konfiguracji. 2.2. Potrzeba posiadania języka matematycznego. 2.3. Nasze oprogramowanie do zmierzenia się z uczeniem maszynowym. 2.4. Prawdopodobieństwo. 2.5. Kombinacje liniowe, sumy ważone i iloczyny skalarne. 2.6. Perspektywa geometryczna: punkty w przestrzeni. 2.7. Notacja sztuczki plus jeden. 2.8. Odjazd, zrywanie kaftana bezpieczeństwa i nieliniowość. 2.9. NumPy kontra "cała matematyka". 2.10. Problemy z wartościami zmiennoprzecinkowymi. 2.11. Zakończenie rozdziału. Rozdział 3. Predykcja kategorii - początki klasyfikacji. 3.1. Zadania klasyfikacji. 3.2. Prosty zestaw danych do klasyfikacji. 3.3. Trenowanie i testowanie: nie ucz się do testu. 3.4. Ocena - wystawienie stopni. 3.5. Prosty klasyfikator nr 1: najbliżsi sąsiedzi, związki na odległość i założenia. 3.6. Prosty klasyfikator nr 2: naiwny klasyfikator bayesowski, prawdopodobieństwo i złamane obietnice. 3.7. Uproszczona ocena klasyfikatorów. 3.8. Koniec rozdziału. Rozdział 4. Predykcja wartości numerycznych: początki regresji. 4.1. Prosty zbiór danych dla regresji. 4.2. Regresja z najbliższymi sąsiadami i statystyki sumaryczne. 4.3. Błędy regresji liniowej. 4.4. Optymalizacja - wybór najlepszej odpowiedzi. 4.5. Prosta ocena i porównanie regresorów. 4.6. Zakończenie rozdziału. CZĘŚĆ II. OCENA. Rozdział 5. Ocena i porównywanie metod uczenia się. 5.1. Ocena i dlaczego mniej znaczy więcej. 5.2. Terminologia dla faz uczenia się. 5.3. Majorze Tom, coś jest nie tak - nadmierne dopasowanie i niedopasowanie. 5.4. Od błędów do kosztów. 5.5. (Powtórne) próbkowanie - zamienić mniej w więcej. 5.6. Rozbicie: dekonstrukcja błędu na błąd systematyczny i wariancję. 5.7. Ocena graficzna i porównanie. 5.8. Porównywanie metod uczących się za pomocą walidacji krzyżowej. 5.9. Koniec rozdziału. Rozdział 6. Ocena klasyfikatorów. 6.1. Klasyfikatory bazowe. 6.2. Więcej niż dokładność - wskaźniki dla klasyfikacji. 6.3. Krzywe ROC. 6.4. Inne podejście dla wielu klas: jeden-kontra-jeden. 6.5. Krzywe precyzji i skuteczności wyszukiwania. 6.6. Krzywe kumulacyjnej odpowiedzi i wzniesienia. 6.7. Bardziej wyrafinowana ocena klasyfikatorów - podejście drugie. 6.8. Koniec rozdziału. Rozdział 7. Ocena metod regresji. 7.1. Metody regresji będące punktem odniesienia. 7.2. Dodatkowe miary w metodach regresji. 7.3. Wykresy składników resztowych. 7.4. Pierwsze podejście do standaryzacji. 7.5. Ocena mechanizmów regresji w bardziej zaawansowany sposób: podejście drugie. 7.6. Koniec rozdziału. CZĘŚĆ III. JESZCZE O METODACH I PODSTAWACH. Rozdział 8. Inne metody klasyfikacji. 8.1. Jeszcze o klasyfikacji. 8.2. Drzewa decyzyjne. 8.3. Klasyfikatory oparte na wektorach nośnych. 8.4. Regresja logistyczna. 8.5. Analiza dyskryminacyjna. 8.6. Założenia, obciążenie i klasyfikatory. 8.7. Porównanie klasyfikatorów: podejście trzecie. 8.8. Koniec rozdziału. Rozdział 9. Inne metody regresji. 9.1. Regresja liniowa na ławce kar – regularyzacja. 9.2. Regresja z użyciem wektorów nośnych. 9.3. Regresja segmentowa ze stałymi. 9.4. Drzewa regresyjne. 9.5. Porównanie metod regresji: podejście trzecie. 9.6. Koniec rozdziału. Rozdział 10. Ręczna inżynieria cech - manipulowanie danymi dla zabawy i dla zysku. 10.1. Terminologia i przyczyny stosowania inżynierii cech. 10.2. Wybieranie cech i redukcja danych - pozbywanie się śmieci. 10.3. Skalowanie cech. 10.4. Dyskretyzacja. 10.5. Kodowanie kategorii. 10.6. Relacje i interakcje. 10.7. Manipulowanie wartościami docelowymi. 10.8. Koniec rozdziału. Rozdział 11. Dopracowywanie hiperparametrów i potoki. 11.1. Modele, parametry i hiperparametry. 11.2. Dostrajanie hiperparametrów. 11.3. Wyprawa w rekurencyjną króliczą norę - zagnieżdżony sprawdzian krzyżowy. 11.4. Potoki. 11.5. Potoki i dostrajanie całego procesu. 11.6. Koniec rozdziału. CZĘŚĆ IV. ZWIĘKSZANIE ZŁOŻONOŚCI. Rozdział 12. Łączenie mechanizmów uczących się. 12.1. Zespoły. 12.2. Zespoły głosujące. 12.3. Bagging i lasy losowe. 12.4. Boosting. 12.5. Porównywanie metod opartych na zespołach drzew. 12.6. Koniec rozdziału. Rozdział 13. Modele z automatyczną inżynierią cech. 13.1. Wybieranie cech. 13.2. Tworzenie cech za pomocą jąder. 13.3. Analiza głównych składowych - technika nienadzorowana. 13.4. Koniec rozdziału. Rozdział 14. Inżynieria cech dla dziedzin - uczenie specyficzne dla dziedziny. 14.1. Praca z tekstem. 14.2. Klastrowanie. 14.3. Praca z obrazami. 14.4. Koniec rozdziału. Rozdział 15. Powiązania, rozwinięcia i kierunki dalszego rozwoju. 15.1. Optymalizacja. 15.2. Regresja liniowa z prostych składników. 15.3. Regresja logistyczna z prostych składników. 15.4. Maszyna SVM z prostych składników. 15.5. Sieci neuronowe. 15.6. Probabilistyczne modele grafowe. 15.7. Koniec rozdziału. Dodatek A. Kod z pliku mlwpy.py.
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 004 (2 egz.)
Książka
W koszyku
Uczenie maszynowe z użyciem Scikit-Learn i TensorFlow / Aurélien Géron ; tłum. Krzysztof Sawka. - Wydanie 2 - aktualizacja do modułu TensorFlow 2. - Gliwice : Helion S.A. , cop. 2020. - 764, [4] s. : rys., wykresy, wzory ;
CZĘŚĆ I. PODSTAWY UCZENIA MASZYNOWEGO. 1. Krajobraz uczenia maszynowego. Czym jest uczenie maszynowe? Dlaczego warto korzystać z uczenia maszynowego? Przykładowe zastosowania. Rodzaje systemów uczenia maszynowego. Główne problemy uczenia maszynowego. Testowanie i ocenianie. Ćwiczenia. 2. Nasz pierwszy projekt uczenia maszynowego. Praca z rzeczywistymi danymi. Przeanalizuj całokształt projektu. Zdobądź dane. Odkrywaj i wizualizuj dane, aby zdobywać nowe informacje. Przygotuj dane pod algorytmy uczenia maszynowego. Wybór i uczenie modelu. Wyreguluj swój model. Uruchom, monitoruj i utrzymuj swój system. Teraz Twoja kolej! Ćwiczenia. 3. Klasyfikacja. Zbiór danych MNIST. Uczenie klasyfikatora binarnego. Miary wydajności. Klasyfikacja wieloklasowa. Analiza błędów. Klasyfikacja wieloetykietowa. Klasyfikacja wielowyjściowa. Ćwiczenia. 4. Uczenie modeli. Regresja liniowa. Gradient prosty. Regresja wielomianowa. Krzywe uczenia. Regularyzowane modele liniowe. Regresja logistyczna. Ćwiczenia. 5. Maszyny wektorów nośnych. Liniowa klasyfikacja SVM. Nieliniowa klasyfikacja SVM. Regresja SVM. Mechanizm działania. Ćwiczenia. 6. Drzewa decyzyjne. Uczenie i wizualizowanie drzewa decyzyjnego. Wyliczanie prognoz. Szacowanie prawdopodobieństw przynależności do klas. Algorytm uczący CART. Złożoność obliczeniowa. Wskaźnik Giniego czy entropia? Hiperparametry regularyzacyjne. Regresja. Niestabilność. Ćwiczenia. 7. Uczenie zespołowe i losowe lasy. Klasyfikatory głosujące. Agregacja i wklejanie. Rejony losowe i podprzestrzenie losowe. Losowe lasy. Wzmacnianie. Kontaminacja. Ćwiczenia. 8. Redukcja wymiarowości. Klątwa wymiarowości. Główne strategie redukcji wymiarowości. Analiza PCA. Jądrowa analiza PCA. Algorytm LLE. Inne techniki redukowania wymiarowości. Ćwiczenia. 9. Techniki uczenia nienadzorowanego. Analiza skupień. Mieszaniny gaussowskie. Ćwiczenia. CZĘŚĆ II. SIECI NEURONOWE I UCZENIE GŁĘBOKIE. 10. Wprowadzenie do sztucznych sieci neuronowych i ich implementacji z użyciem interfejsu Keras. Od biologicznych do sztucznych neuronów. Implementowanie perceptronów wielowarstwowych za pomocą interfejsu Keras. Dostrajanie hiperparametrów sieci neuronowej. Ćwiczenia. 11. Uczenie głębokich sieci neuronowych. Problemy zanikających/eksplodujących gradientów. Wielokrotne stosowanie gotowych warstw. Szybsze optymalizatory. Regularyzacja jako sposób zapobiegania przetrenowaniu. Podsumowanie i praktyczne wskazówki. Ćwiczenia. 12. Modele niestandardowe i uczenie za pomocą modułu TensorFlow. Krótkie omówienie modułu TensorFlow. Korzystanie z modułu TensorFlow jak z biblioteki NumPy. Dostosowywanie modeli i algorytmów uczenia. Funkcje i grafy modułu TensorFlow. Ćwiczenia. 13. Wczytywanie i wstępne przetwarzanie danych za pomocą modułu TensorFlow. Interfejs danych. Format TFRecord. Wstępne przetwarzanie cech wejściowych. TF Transform. Projekt TensorFlow Datasets (TFDS). Ćwiczenia. 14. Głębokie widzenie komputerowe za pomocą splotowych sieci neuronowych. Struktura kory wzrokowej. Warstwy splotowe. Warstwa łącząca. Architektury splotowych sieci neuronowych. Implementacja sieci ResNet-34 za pomocą interfejsu Keras. Korzystanie z gotowych modeli w interfejsie Keras. Gotowe modele w uczeniu transferowym. Klasyfikowanie i lokalizowanie. Wykrywanie obiektów. Segmentacja semantyczna. Ćwiczenia. 15. Przetwarzanie sekwencji za pomocą sieci rekurencyjnych i splotowych. Neurony i warstwy rekurencyjne. Uczenie sieci rekurencyjnych. Prognozowanie szeregów czasowych. Obsługa długich sekwencji. Ćwiczenia. 16. Przetwarzanie języka naturalnego za pomocą sieci rekurencyjnych i mechanizmów uwagi. Generowanie tekstów szekspirowskich za pomocą znakowej sieci rekurencyjnej. Analiza sentymentów. Sieć typu koder - dekoder służąca do neuronowego tłumaczenia maszynowego. Mechanizmy uwagi. Współczesne innowacje w modelach językowych. Ćwiczenia. 17. Uczenie reprezentacji za pomocą autokoderów i generatywnych sieci przeciwstawnych. Efektywne reprezentacje danych. Analiza PCA za pomocą niedopełnionego autokodera liniowego. Autokodery stosowe. Autokodery splotowe. Autokodery rekurencyjne. Autokodery odszumiające. Autokodery rzadkie. Autokodery wariacyjne. Generatywne sieci przeciwstawne. Ćwiczenia. 18. Uczenie przez wzmacnianie. Uczenie się optymalizowania nagród. Wyszukiwanie strategii. Wprowadzenie do narzędzia OpenAI Gym. Sieci neuronowe jako strategie. Ocenianie czynności: problem przypisania zasługi. Gradienty strategii. Procesy decyzyjne Markowa. Uczenie metodą różnic czasowych. Q-uczenie. Implementacja modelu Q-uczenia głębokiego. Odmiany Q-uczenia głębokiego. Biblioteka TF-Agents. Przegląd popularnych algorytmów RN. Ćwiczenia. 19. Wielkoskalowe uczenie i wdrażanie modeli TensorFlow. Eksploatacja modelu TensorFlow. Wdrażanie modelu na urządzeniu mobilnym lub wbudowanym. Przyspieszanie obliczeń za pomocą procesorów graficznych. Uczenie modeli za pomocą wielu urządzeń. Ćwiczenia. Dziękuję! A. Rozwiązania ćwiczeń. B. Lista kontrolna projektu uczenia maszynowego. C. Problem dualny w maszynach wektorów nośnych. D. Różniczkowanie automatyczne. E. Inne popularne architektury sieci neuronowych. F. Specjalne struktury danych. G. Grafy TensorFlow.
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 004 (2 egz.)
Pozycja została dodana do koszyka. Jeśli nie wiesz, do czego służy koszyk, kliknij tutaj, aby poznać szczegóły.
Nie pokazuj tego więcej