Sortowanie
Źródło opisu
ebookpoint BIBLIO
(3)
IBUK Libra
(2)
Książki
(2)
Forma i typ
E-booki
(5)
Książki
(2)
Publikacje fachowe
(1)
Dostępność
dostępne
(2)
Placówka
Wypożyczalnia
(2)
Autor
Matuk Konrad
(2)
Allaire J. J
(1)
Bombik Wojciech
(1)
Chollet Francois
(1)
Grus Joel
(1)
Gugger Sylvain
(1)
Howard Jeremy
(1)
Janusz Jacek
(1)
Mirjalili Vahid
(1)
Pawlak Mirosław
(1)
Raschka Sebastian
(1)
Sawka Krzysztof
(1)
Słowiński Radosław
(1)
Rok wydania
2020 - 2024
(5)
2010 - 2019
(2)
Okres powstania dzieła
2001-
(1)
Kraj wydania
Polska
(7)
Język
polski
(5)
angielski
(2)
Temat
Deep learning
(2)
Programowanie (informatyka)
(1)
Programy komputerowe
(1)
Python (język programowania)
(1)
Sztuczna inteligencja
(1)
Uczenie się maszyn
(1)
Gatunek
Podręcznik
(2)
Praca zbiorowa
(1)
Dziedzina i ujęcie
Informatyka i technologie informacyjne
(2)
7 wyników Filtruj
E-book
W koszyku

Analityka danych jest uważana za wyjątkowo obiecującą dziedzinę wiedzy. Rozwija się błyskawicznie i znajduje coraz to nowsze zastosowania. Profesjonaliści biegli w eksploracji danych i wydobywaniu z nich pożytecznych informacji mogą liczyć na interesującą pracę i bardzo atrakcyjne warunki zatrudnienia. Jednak aby zostać analitykiem danych, trzeba znać matematykę i statystykę, a także nauczyć się programowania. Umiejętności w zakresie uczenia maszynowego i uczenia głębokiego również są ważne. W przypadku tak specyficznej dziedziny, jaką jest nauka o danych, szczególnie istotne jest zdobycie gruntownych podstaw i dogłębne ich zrozumienie.

W tym przewodniku opisano zagadnienia związane z podstawami nauki o danych. Wyjaśniono niezbędne elementy matematyki i statystyki. Przedstawiono także techniki budowy potrzebnych narzędzi i sposoby działania najistotniejszych algorytmów. Książka została skonstruowana tak, aby poszczególne implementacje były jak najbardziej przejrzyste i zrozumiałe. Zamieszczone tu przykłady napisano w Pythonie: jest to język dość łatwy do nauki, a pracę na danych ułatwia szereg przydatnych bibliotek Pythona. W drugim wydaniu znalazły się nowe tematy, takie jak uczenie głębokie, statystyka i przetwarzanie języka naturalnego, a także działania na ogromnych zbiorach danych. Zagadnienia te często pojawiają się w pracy współczesnego analityka danych.

W książce między innymi:

  • elementy algebry liniowej, statystyki i rachunku prawdopodobieństwa
  • zbieranie, oczyszczanie i eksploracja danych
  • algorytmy modeli analizy danych
  • podstawy uczenia maszynowego
  • systemy rekomendacji i przetwarzanie języka naturalnego
  • analiza sieci społecznościowych i algorytm MapReduce

Nauka o danych: bazuj na solidnych podstawach!

Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu dostępu, który można odebrać w bibliotece.
Brak okładki
Książka
W koszyku
Opinie o książce; Wstęp: Dla kogo jest przeznaczona ta książka?; Co musisz wiedzieć?; Czego się nauczysz dzięki tej książce?; Przedmowa; Część I. Uczenie głębokie w praktyce; Rozdział 1. Podróż po świecie uczenia głębokiego: Uczenie głębokie jest dla każdego; Sieci neuronowe krótka historia; Kim jesteśmy?; Jak zdobyć wiedzę o uczeniu głębokim?; Twoje projekty i Twój sposób myślenia; Oprogramowanie: PyTorch, fastai i Jupyter (i dlaczego nie ma to znaczenia); Twój pierwszy model; Uzyskanie dostępu do serwera z procesorem graficznym i możliwością realizowania uczenia głębokiego; Uruchomienie pierwszego notatnika; Co to jest uczenie maszynowe?; Co to jest sieć neuronowa?; Trochę słownictwa związanego z uczeniem głębokim; Ograniczenia związane z uczeniem maszynowym; Jak działa nasz program do rozpoznawania obrazów; Czego nauczył się program do rozpoznawania obrazów?; Systemy do rozpoznawania obrazów mogą radzić sobie z zadaniami innymi niż analiza obrazów; Podsumowanie słownictwa; Uczenie głębokie to nie tylko klasyfikowanie obrazów; Zbiory walidacyjne i testowe; Użycie oceny w definiowaniu zbiorów testowych; Moment, w którym wybierasz swoją własną przygodę; Pytania; Dalsze badania; Rozdział 2. Od modelu do produkcji: Praktyczne zastosowanie uczenia głębokiego; Rozpoczęcie projektu; Stan uczenia głębokiego; Widzenie komputerowe; Dokumenty tekstowe (przetwarzanie języka naturalnego); Łączenie tekstu z obrazami; Dane tabelaryczne; Systemy rekomendacji; Inne typy danych; Metoda układu napędowego; Gromadzenie danych; Od danych do obiektu DataLoaders; Generowanie sztucznych danych; Trenowanie modelu i używanie go do czyszczenia danych; Przekształcanie modelu w aplikację internetową; Korzystanie z modelu do wnioskowania; Tworzenie w notatniku aplikacji na podstawie modelu; Zamień notatnik w prawdziwą aplikację; Wdrażanie aplikacji; Jak uniknąć katastrofy; Nieprzewidziane konsekwencje i pętle sprzężenia zwrotnego; Zapisuj!; Pytania; Dalsze badania; Rozdział 3. Etyka danych: Kluczowe przykłady etyki danych; Błędy i regresja: wadliwy algorytm używany do świadczeń opieki zdrowotnej; Pętle sprzężenia zwrotnego: system rekomendacji YouTube; Uprzedzenie: wykładowca Latanya Sweeney aresztowana; Dlaczego ma to znaczenie?; Integracja uczenia maszynowego z projektowaniem produktu; Zagadnienia związane z etyką danych; Regres i odpowiedzialność; Pętle sprzężenia zwrotnego; Uprzedzenie; Uprzedzenie historyczne; Uprzedzenie pomiarowe; Uprzedzenie agregacyjne; Uprzedzenie reprezentacyjne; Rozwiązywanie problemów związanych z różnymi rodzajami uprzedzeń; Dezinformacja; Identyfikowanie i rozwiązywanie problemów etycznych; Przeanalizuj projekt, nad którym pracujesz; Procesy do zaimplementowania; Pryzmat etyczny; Potęga różnorodności; Uczciwość, odpowiedzialność i przejrzystość; Rola polityki; Skuteczność przepisów; Prawa i polityka; Samochody historyczny precedens; Wnioski; Pytania; Dalsze badania; Uczenie głębokie w praktyce to wszystko!; Część II. Zrozumienie aplikacji fastai: Rozdział 4. Jak to wygląda od środka trenowanie klasyfikatora cyfr: Piksele podstawa widzenia komputerowego; Podejście pierwsze: podobieństwo pikseli; Tablice NumPy i tensory PyTorch; Wyznaczanie wskaźników z wykorzystaniem rozgłaszania; Stochastyczny spadek wzdłuż gradientu; Wyznaczanie gradientów; Stopniowanie ze współczynnikiem uczenia; Kompleksowy przykład użycia stochastycznego spadku wzdłuż gradientu; Etap 1.: inicjalizacja parametrów; Etap 2.: obliczanie prognoz; Etap 3.: obliczanie straty; Etap 4.: obliczanie gradientów; Etap 5.: stopniowanie wag; Etap 6.: powtórzenie procesu; Etap 7.: koniec; Podsumowanie procesu stochastycznego spadku wzdłuż gradientu; Funkcja straty MNIST; Sigmoida; Stochastyczny spadek wzdłuż gradientu i minipaczki; Złożenie wszystkiego w całość; Tworzenie optymalizatora; Wprowadzanie nieliniowości; Bardziej rozbudowane modele; Podsumowanie słownictwa; Pytania; Dalsze badania; Rozdział 5. Klasyfikowanie obrazów: Od psów i kotów do ras zwierząt domowych; Dobór wstępny; Sprawdzanie i debugowanie obiektu DataBlock; Entropia krzyżowa; Przeglądanie aktywacji i etykiet; Softmax; Logarytm prawdopodobieństwa; Obliczanie logarytmu; Interpretacja modelu; Poprawianie modelu; Wyszukiwarka współczynnika uczenia; Odmrażanie i uczenie transferowe; Dyskryminatywne współczynniki uczenia; Wybór liczby epok; Bardziej złożone architektury; Podsumowanie; Pytania; Dalsze badania; Rozdział 6. Inne zagadnienia związane z widzeniem komputerowym: Klasyfikacja wieloetykietowa; Dane; Tworzenie obiektu DataBlock; Binarna entropia krzyżowa; Regresja; Gromadzenie danych; Trenowanie modelu; Podsumowanie; Pytania; Dalsze badania; Rozdział 7. Trenowanie supernowoczesnego modelu: Imagenette; Normalizacja; Progresywna zmiana rozmiaru; Wydłużenie czasu testu; Mixup; Wygładzanie etykiet; Podsumowanie; Pytania; Dalsze badania; Rozdział 8. Szczegółowa analiza filtrowania zespołowego: Pierwszy kontakt z danymi; Czynniki ukryte; Tworzenie obiektu DataLoaders; Filtrowanie zespołowe od podstaw; Wygaszanie wag; Tworzenie własnego modułu osadzania; Interpretacja osadzeń i przesunięć; Użycie aplikacji fastai.collab; Odległość osadzania; Uruchamianie modelu filtrowania zespołowego; Uczenie głębokie w filtrowaniu zespołowym; Podsumowanie; Pytania; Dalsze badania; Rozdział 9. Szczegółowa analiza modelowania tabelarycznego: Osadzenia skategoryzowane; Poza uczeniem głębokim; Zbiór danych; Konkursy Kaggle; Sprawdzenie danych; Drzewa decyzyjne; Obsługa dat; Użycie obiektów TabularPandas i TabularProc; Tworzenie drzewa decyzyjnego; Zmienne skategoryzowane; Lasy losowe; Tworzenie lasu losowego; Błąd out-of-bag; Interpretacja modelu; Wariancja drzewa dla pewności prognozy; Ważności cech; Usuwanie zmiennych o niskiej ważności; Usuwanie zbędnych cech; Częściowa zależność; Wyciek danych; Interpreter drzewa; Ekstrapolacja i sieci neuronowe; Problem ekstrapolacji; Wyszukiwanie danych spoza domeny; Użycie sieci neuronowej; Łączenie w zespoły; Wzmacnianie; Łączenie osadzeń z innymi metodami; Podsumowanie; Pytania; Dalsze badania; Rozdział 10. Szczegółowa analiza przetwarzania języka naturalnego rekurencyjne sieci neuronowe: Wstępne przetwarzanie tekstu; Tokenizacja; Tokenizacja słów przy użyciu biblioteki fastai; Tokenizacja podłańcuchów; Zamiana na liczby przy użyciu biblioteki fastai; Umieszczanie tekstu w paczkach dla modelu językowego; Trenowanie klasyfikatora tekstu; Użycie klasy DataBlock w modelu językowym; Dostrajanie modelu językowego; Zapisywanie i wczytywanie modeli; Generowanie tekstu; Tworzenie klasyfikatora DataLoaders; Dostrajanie klasyfikatora; Dezinformacja i modele językowe; Podsumowanie; Pytania; Dalsze badania; Rozdział 11. Przygotowywanie danych dla modeli za pomocą interfejsu API pośredniego poziomu z biblioteki fastai: Szczegółowa analiza warstwowego interfejsu programistycznego biblioteki fastai; Transformacje; Tworzenie własnej transformacji; Klasa Pipeline potoku transformacji; TfmdLists i Datasets kolekcje przekształcone; TfmdLists; Datasets; Zastosowanie interfejsu API pośredniego poziomu SiamesePair; Podsumowanie; Pytania; Dalsze badania; Zrozumienie aplikacji fastai podsumowanie; Część III. Podstawy uczenia głębokiego: Rozdział 12. Tworzenie od podstaw modelu językowego: Dane; Tworzenie od podstaw pierwszego modelu językowego; Obsługa modelu językowego w bibliotece PyTorch; Pierwsza rekurencyjna sieć neuronowa; Ulepszanie sieci RNN; Obsługa stanu sieci RNN; Tworzenie większej liczby sygnałów; Wielowarstwowe rekurencyjne sieci neuronowe; Model; Eksplodujące lub zanikające aktywacje; Architektura LSTM; Tworzenie modelu LSTM od podstaw; Trenowanie modelu językowego wykorzystującego architekturę LSTM; Regularyzacja modelu LSTM; Dropout; Regularyzacja aktywacji i czasowa regularyzacja aktywacji; Trening regularyzowanego modelu LSTM z wiązanymi wagami; Podsumowanie; Pytania; Dalsze badania; Rozdział 13. Konwolucyjne sieci neuronowe: Magia konwolucji; Odwzorowywanie jądra splotu; Konwolucje w bibliotece PyTorch; Kroki i dopełnienie; Zrozumienie równań konwolucji; Pierwsza konwolucyjna sieć neuronowa; Tworzenie konwolucyjnej sieci neuronowej; Zrozumienie arytmetyki konwolucji; Pola receptywne; Kilka uwag o Twitterze; Obrazy kolorowe; Ulepszanie stabilności trenowania; Prosty model bazowy; Zwiększenie wielkości paczki; Trenowanie jednocykliczne; Normalizacja wsadowa; Podsumowanie; Pytania; Dalsze badania; Rozdział 14. Sieci ResNet: Powrót do Imagenette; Tworzenie nowoczesnej konwolucyjnej sieci neuronowej ResNet; Pomijanie połączeń; Model sieci ResNet na poziomie światowym; Warstwy z wąskim gardłem; Podsumowanie; Pytania; Dalsze badania; Rozdział 15. Szczegółowa analiza architektur aplikacji: Widzenie komputerowe; Funkcja cnn_learner; Funkcja unet_learner; Model syjamski; Przetwarzanie języka naturalnego; Dane tabelaryczne; Podsumowanie; Pytania; Dalsze badania; Rozdział 16. Proces trenowania: Tworzenie modelu bazowego; Ogólny optymalizator; Momentum; RMSProp; Adam; Dwie metody wygaszania wag; Wywołania zwrotne; Tworzenie wywołania zwrotnego; Kolejność wywołań zwrotnych i wyjątki; Podsumowanie; Pytania; Dalsze badania; Podstawy uczenia głębokiego podsumowanie; Część IV. Uczenie głębokie od podstaw: Rozdział 17. Sieć neuronowa od podstaw: Tworzenie od podstaw warstwy sieci neuronowej; Modelowanie neuronu; Mnożenie macierzy od podstaw; Arytmetyka składowych; Rozgłaszanie; Rozgłaszanie wartości skalarnej; Rozgłaszanie wektora na macierz; Zasady rozgłaszania; Konwencja sumacyjna Einsteina; Przejścia w przód i wstecz; Definiowanie i inicjalizowanie warstwy; Gradienty i przejście wstecz; Modyfikowanie modelu; Implementacja przy użyciu biblioteki PyTorch; Podsumowanie; Pytania; Dalsze badania; Rozdział 18. Interpretacja sieci CNN przy użyciu mapy aktywacji klas: Mapa aktywacji klas i punkty zaczepienia; Gradientowa mapa aktywacji klas; Podsumowanie; Pytania; Dalsze badania; Rozdział 19. Klasa Learner biblioteki fastai od podstaw: Dane; Klasa Dataset; Klasy Module i Parameter; Prosta konwolucyjna sieć neuronowa; Funkcja straty; Klasa Learner; Wywołania zwrotne; Harmonogram modyfikowania współczynnika uczenia; Podsumowanie; Pytania; Dalsze badania; Rozdział 20. Uwagi końcowe: Dodatek A. Tworzenie bloga; Blogowanie przy użyciu usługi GitHub Pages; Tworzenie repozytorium; Konfigurowanie strony głównej; Tworzenie wpisów; Synchronizowanie GitHuba z własnym komputerem; Tworzenie bloga za pomocą notatnika Jupytera; Dodatek B. Lista kontrolna projektu dotyczącego danych; Analitycy danych; Strategia; Dane; Analityka; Implementacja; Utrzymywanie; Ograniczenia; O autorach; Podziękowania; Kolofon.
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 004 (2 egz.)
E-book
W koszyku

W ostatnich latach byliśmy świadkami ogromnego postępu technik sztucznej inteligencji, uczenia maszynowego oraz uczenia głębokiego. Konsekwencje tego błyskawicznego rozwoju są odczuwalne w niemal każdej dziedzinie. Wydaje się, że to jedna z tych technologii, które powinny być dostępne dla jak najszerszej grupy ludzi. Dopiero wtedy uczenie głębokie wykorzysta w pełni swój potencjał i stanie się prawdziwym impulsem rozwoju naszej cywilizacji. Co prawda na pierwszy rzut oka ta niesamowita technologia może wydawać się wyjątkowo skomplikowana i trudna do zrozumienia, warto jednak wykorzystać dostępne narzędzia, takie jak biblioteka Keras i język R, aby implementować mechanizmy uczenia głębokiego wszędzie tam, gdzie okażą się przydatne.

Ta książka jest znakomitym przewodnikiem po technikach uczenia głębokiego. Poza wyczerpująco przedstawionymi podstawami znajdziesz tu zasady implementacji tych technik z wykorzystaniem języka R i biblioteki Keras. Dzięki przystępnym wyjaśnieniom i praktycznym przykładom szybko zrozumiesz nawet bardziej skomplikowane zagadnienia uczenia głębokiego. Poznasz koncepcje i dobre praktyki związane z tworzeniem mechanizmów analizy obrazu, przetwarzania języka naturalnego i modeli generatywnych. Przeanalizujesz ponad 30 przykładów kodu uzupełnionego dokładnymi komentarzami. W efekcie szybko przygotujesz się do korzystania z uczenia głębokiego w rozwiązywaniu konkretnych problemów.

W tej książce między innymi:

  • podstawowe koncepcje sztucznej inteligencji, uczenia maszynowego i uczenia głębokiego
  • wprowadzenie do budowy i trenowania sieci neuronowych
  • uczenie głębokie w przetwarzaniu obrazów
  • modele generatywne tworzące obrazy i tekst
  • perspektywy i ograniczenia uczenia głębokiego

Uczenie głębokie: zafascynuj się i zaimplementuj!

Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu dostępu, który można odebrać w bibliotece.
E-book
W koszyku
Forma i typ
Gatunek
In this issue of the journal “Econometrics. Ekonometria. Advances in Applied Data Analysis” five articles are published. Necmi Gürsakal, Fırat Melih Yilmaz and Erginbay Uğurlu describe opportunity windows in time series data using the sliding window technique. The authors were also looking for other possibilities to use this technique. In the next article, Iwona Bąk and Katarzyna Cheba, show the use of fuzzy cognitive maps in the economic sciences. The authors make an expert assessment of the relationship existing between selected indicators carried out using Fuzzy Cognitive Maps on the example of goals in Strategy for Sustainable Development. 2030 Agenda. The paper by Filip Wójcik and Michał Górnik concerns the improvement of e-commerce recommendation systems with deep hybrid collaborative filtering with content. Thanks to their proposal of utilizing flexible neural network architecture called Deep Hybrid Collaborative Filtering with Content Model (DHCF) stacked on top of classic methods, they intended to provide better shopping suggestions for customers on the e-commerce platform. The next paper, by Wiktor Ejsmont and Janusz Łyko, discusses the health value added of healthcare entities. In the article, the index representing the patient’s health condition and its changes before and after being treated by a given entity are described. The study of corporate social responsibility as a way to sustainable employment is the subject of the article by Karolina Muszyńska, who attempted to identify the relationship between the declared activities in line with corporate social responsibility and the implementation of diversity management concepts.
Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu PIN. Po odbiór kodu PIN zapraszamy do biblioteki.
E-book
W koszyku
Forma i typ

Obierz kurs na... Kerasa!

Sztuczna inteligencja budzi w ludziach sprzeczne emocje. Niektórzy widzą w niej śmiertelne zagrożenie, inni wprost przeciwnie, dostrzegają ogromną szansę na rozwój nauki. Ci drudzy niestrudzenie poszukują sposobów na to, by nauczyć maszyny sensownego przetwarzania informacji. Jednym z takich sposobów jest rozwijające się dziś intensywnie uczenie maszynowe i towarzyszące mu uczenie głębokie, a technologia ta wymaga umiejętności budowy sieci neuronowych i ich wykorzystywania.

Jeśli chcesz zagłębić się nieco w świat przyszłości i zrozumieć podstawy, na jakich opierają się dzisiejsze rozwiązania w zakresie inteligentnych maszyn, najwyższy czas przyjrzeć się bliżej bibliotece Keras, zaimplementowanej w języku Python. Tematem szkolenia Keras w praktyce. Kurs video. Tworzenie modeli uczenia głębokiego są różne techniki wykorzystywane podczas projektowania i programowania głębokich sieci neuronowych z poziomu biblioteki, która wykorzystuje popularne frameworki, takie jak TensorFlow, CNTK czy Theano. Aby wynieść z kursu jak najwięcej, powinieneś znać język Python. Dodatkowym atutem będzie znajomość ogólnej idei uczenia maszynowego i jego rodzajów.
Sprawdź, jak wykorzystać bibliotekę Keras do swoich celów, i naucz się tworzyć uczące się sieci!

Czego nauczysz się podczas naszego profesjonalnego szkolenia?

  • Poznasz różne rodzaje uczenia głębokiego.
  • Dowiesz się, jak dodawać sieci gęste i konwolucyjne w Kerasie.
  • Nauczysz się tworzyć modele sieci neuronowych.
  • Opanujesz proces uczenia sieci neuronowej.
  • Odkryjesz, jak normalizować dane z wykorzystaniem Kerasa.
  • Zorientujesz się, jak wygląda ogólny schemat działania sieci konwolucyjnej.

Keras w praktyce. Kurs video. Tworzenie modeli uczenia głębokiego to 12 lekcji, podczas których opanujesz korzystanie ze specjalistycznej biblioteki Pythona w stopniu podstawowym. Główny nacisk jest tu położony na poznanie ogólnego konceptu stojącego za określonymi metodami uczenia głębokiego — nie tyle w teorii, ile w praktyce. Podczas kursu wraz z autorem napiszesz kilka projektów, na przykład dotyczących sieci neuronowej zdolnej rozpoznawać cyfry od 0 do 9 lub sieci neuronowej określającej, czy podana recenzja filmu jest pozytywna, czy negatywna.
Co więcej, poznasz różnice między sieciami gęstymi a konwolucyjnymi. Odkryjesz, jak działają sieci konwolucyjne i dlaczego przydają się przy rozwiązywaniu problemów z wizją komputerową. Zobaczysz także, jak stworzyć proste modele, które dokonują klasyfikacji z wykorzystaniem frameworka Keras.

Projektowanie z użyciem Kerasa

Warto wiedzieć, że biblioteka Keras zapewnia użytkownikowi przyjazne API. Do jej obsługi nie jest potrzebna aż tak złożona wiedza jak w przypadku TensorFlow, dlatego naukę warto zacząć właśnie od niej. Keras w praktyce. Kurs video. Tworzenie modeli uczenia głębokiego pozwala oswoić się z biblioteką i pokazuje, jak tworzyć praktyczne projekty. Chociaż w uczeniu głębokim matematyka odgrywa kluczową rolę, ten kurs nie wymaga znajomości jej bardziej złożonych zagadnień: autor starał się zminimalizować potrzebę odwoływania się do kwestii matematycznych.
Nauka tworzenia sieci neuronowych i prostych klasyfikatorów może zaprocentować w przyszłości. Uczenie głębokie jest bardzo szeroką i wymagającą dziedziną, a podczas tego kursu zdobędziesz wiedzę, którą niełatwo przyswoić w inny sposób. Odkryjesz mnóstwo zagadnień związanych z budową sieci neuronowych, trenowaniem tych sieci oraz tworzeniem i testowaniem modeli. To zapewni Ci doskonałe podstawy do dalszej nauki.

Jak odróżnić psa od kota?

Zrozumienie działania sieci neuronowych i reguł rządzących uczeniem głębokim może Ci pomóc w najdziwniejszych problemach. Z wykorzystaniem świeżo zdobytej wiedzy uda Ci się stworzyć prosty klasyfikator, rozpoznający różne kategorie obrazów i przedmiotów, na przykład właściwie przyporządkowujący zdjęcie psa do innego zbioru niż zdjęcie kota, a także bardziej zaawansowany model, zdolny do oceny komentarza tekstowego — zarówno pozytywnego, jak i negatywnego. Efektywne programowanie sieci neuronowych, w tym konwolucyjnych, wymaga znajomości biblioteki, ale także ogólnego kontekstu i prześledzenia sposobu wyodrębniania elementów znaczących ze zbioru surowych danych. To wszystko znajdziesz w tym szkoleniu.
Następnym Twoim krokiem może już być samodzielne wymyślanie i badanie nowych architektur sieci neuronowych i próba użycia ich do rozwiązania danego problemu.

Tylko dla wtajemniczonych

Keras w praktyce. Kurs video. Tworzenie modeli uczenia głębokiego pomoże Ci rozpocząć przygodę z programowaniem sieci neuronowych i uczeniem maszynowym. Ta rozwijająca się prężnie dziedzina informatyki święci dziś triumfy, ponieważ klasyfikatory, segregatory, testery przydają się zawsze i wszędzie. Rozpoznawanie obrazów, przetwarzanie języka naturalnego, przewidywanie ciągów danych, generowanie tekstu i obrazu na podstawie niepełnych danych: to wszystko jest możliwe dzięki temu, że możemy coraz lepiej programować uczące się maszyny. Szacuje się, że w 2020 roku przychody z oprogramowania związanego ze sztuczną inteligencją sięgną 30 miliardów dolarów. Na pewno warto się dowiedzieć, jak i dlaczego to wszystko działa. Kto wie, może będzie to Twój sposób na biznes?


„Just as electricity transformed everything 100 years ago, today I actually have a hard time thinking of an industry that I don’t think AI will transform in the next several years”

Andrew Ng

Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu dostępu, który można odebrać w bibliotece.
E-book
W koszyku
Forma i typ
Celem i misją czasopisma Konińskie Studia Językowe jest stworzenie platformy do dyskusji na temat osiągnięć oraz wyzwań stojących przed naukowcami zajmującymi się językami w ujęciu stosowanym. Adresatem czasopisma są zarówno doświadczeni, jak i początkujący badacze języków, językoznawcy stosowani, dydaktycy, tłumacze, kulturoznawcy i wszyscy ci, którzy traktują język jako podstawowy przedmiot swoich badań. Motywem przewodnim i osią spajającą pracę redakcji jest refleksja nad językiem. W tej szerokiej formule mieści się zarówno podejście ściśle językoznawcze, jak również pedagogiczne czy kulturowe. Mamy nadzieję, że tak zarysowana wizja czasopisma pozwoli nam wypełnić znaczącą lukę na polskim rynku czasopism naukowym. Przyjmując jednoznacznie językoznawczy punkt odniesienia, zakładamy jednocześnie, że szeroki wachlarz odniesień do badań językowych, od praktyki edukacyjno-translatorskiej po kulturowo uwarunkowane użycie języka w mediach, jest niezbędny dla całościowego podejścia do badań językowych.
Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu PIN. Po odbiór kodu PIN zapraszamy do biblioteki.
Brak okładki
Książka
W koszyku
Zawiera: R. 1 Umożliwianie komputerom uczenia się z danych: Tworzenie inteligentnych maszyn służących do przekształcania danych w wiedzę; Trzy różne rodzaje uczenia maszynowego; Wprowadzenie do podstawowej terminologii i notacji; Strategia tworzenia systemów uczenia maszynowego; Wykorzystywanie środowiska Python do uczenia maszynowego; Podsumowanie. R. 2 Trenowanie prostych algorytmów uczenia maszynowego w celach klasyfikacji: Sztuczne neurony - rys historyczny początków uczenia maszynowego; Implementacja algorytmu uczenia perceptronu w Pythonie; Adaptacyjne neurony liniowe i zbieżność uczenia; Podsumowanie. R. 3 Stosowanie klasyfikatorów uczenia maszynowego za pomocą biblioteki scikit-learn: Wybór algorytmu klasyfikującego; Pierwsze kroki z biblioteką scikit-learn - uczenie perceptronu; Modelowanie prawdopodobieństwa przynależności do klasy za pomocą regresji logistycznej; Wyznaczanie maksymalnego marginesu za pomocą maszyn wektorów nośnych; Rozwiązywanie nieliniowych problemów za pomocą jądra SVM; Uczenie drzew decyzyjnych; Algorytm k-najbliższych sąsiadów - model leniwego uczenia; Podsumowanie. R. 4 Tworzenie dobrych zestawów danych uczących - wstępne przetwarzanie danych: Kwestia brakujących danych; Przetwarzanie danych kategorialnych; Rozdzielanie zestawu danych na oddzielne podzbiory uczący i testowy; Skalowanie cech; Dobór odpowiednich cech; Ocenianie istotności cech za pomocą algorytmu losowego lasu; Podsumowanie. R. 5 Kompresja danych poprzez redukcję wymiarowości: Nienadzorowana redukcja wymiarowości za pomocą analizy głównych składowych; Nadzorowana kompresja danych za pomocą liniowej analizy dyskryminacyjnej; Jądrowa analiza głównych składowych jako metoda odwzorowywania nierozdzielnych liniowo klas; Podsumowanie. R. 6 Najlepsze metody oceny modelu i strojenie parametryczne: Usprawnianie cyklu pracy za pomocą kolejkowania; Stosowanie k-krotnego sprawdzianu krzyżowego w ocenie skuteczności modelu; Sprawdzanie algorytmów za pomocą krzywych uczenia i krzywych walidacji; Dostrajanie modeli uczenia maszynowego za pomocą metody przeszukiwania siatki; Przegląd wskaźników oceny skuteczności; Podsumowanie. R. 7 Łączenie różnych modeli w celu uczenia zespołowego: Uczenie zespołów; Łączenie klasyfikatorów za pomocą algorytmu głosowania większościowego; Agregacja - tworzenie zespołu klasyfikatorów za pomocą próbek początkowych; Usprawnianie słabych klasyfikatorów za pomocą wzmocnienia adaptacyjnego; Podsumowanie. R. 8 Wykorzystywanie uczenia maszynowego w analizie sentymentów: Przygotowywanie zestawu danych IMDb movie review do przetwarzania tekstu; Wprowadzenie do modelu worka słów; Uczenie modelu regresji logistycznej w celu klasyfikowania tekstu; Praca z większą ilością danych - algorytmy sieciowe i uczenie pozardzeniowe; Modelowanie tematyczne za pomocą alokacji ukrytej zmiennej Dirichleta; Podsumowanie. R. 9 Wdrażanie modelu uczenia maszynowego do aplikacji sieciowej: Serializacja wyuczonych estymatorów biblioteki scikit-learn; Konfigurowanie bazy danych SQLite; Tworzenie aplikacji sieciowej za pomocą środowiska Flask; Przekształcanie klasyfikatora recenzji w aplikację sieciową; Umieszczanie aplikacji sieciowej na publicznym serwerze; Podsumowanie. R. 10 Przewidywanie ciągłych zmiennych docelowych za pomocą analizy regresywnej: Wprowadzenie do regresji liniowej; Zestaw danych Housing; Implementacja modelu regresji liniowej wykorzystującego zwykłą metodę najmniejszych kwadratów; Uczenie odpornego modelu regresywnego za pomocą algorytmu RANSAC; Ocenianie skuteczności modeli regresji liniowej; Stosowanie regularyzowanych metod regresji; Przekształcanie modelu regresji liniowej w krzywą - regresja wielomianowa; Analiza nieliniowych relacji za pomocą algorytmu losowego lasu; Podsumowanie. R. 11 Praca z nieoznakowanymi danymi - analiza skupień: Grupowanie obiektów na podstawie podobieństwa przy użyciu algorytmu centroidów; Organizowanie skupień do postaci drzewa skupień; Wyznaczanie rejonów o dużej gęstości za pomocą algorytmu DBSCAN; Podsumowanie. R. 12 Implementowanie wielowarstwowej sieci neuronowej od podstaw: Modelowanie złożonych funkcji przy użyciu sztucznych sieci neuronowych; Klasyfikowanie pisma odręcznego; Trenowanie sztucznej sieci neuronowej; Zbieżność w sieciach neuronowych; Jeszcze słowo o implementacji sieci neuronowej; Podsumowanie. R. 13 Równoległe przetwarzanie sieci neuronowych za pomocą biblioteki TensorFlow: Biblioteka TensorFlow a skuteczność uczenia; Pierwsze kroki z biblioteką TensorFlow; Tworzenie potoków wejściowych za pomocą tf.data, czyli interfejsu danych TensorFlow; Tworzenie modelu sieci neuronowej za pomocą modułu TensorFlow; Dobór funkcji aktywacji dla wielowarstwowych sieci neuronowych; Podsumowanie. R. 14 Czas na szczegóły - mechanizm działania biblioteki TensorFlow: Cechy kluczowe TensorFlow; Grafy obliczeniowe TensorFlow: migracja do wersji TensorFlow 2; Obiekty Variable służące do przechowywania i aktualizowania parametrów modelu; Obliczanie gradientów za pomocą różniczkowania automatycznego i klasy GradientTape; Upraszczanie implementacji popularnych struktur za pomocą interfejsu Keras; Estymatory TensorFlow; Podsumowanie. R. 15 Klasyfikowanie obrazów za pomocą głębokich splotowych sieci neuronowych: Podstawowe elementy splotowej sieci neuronowej; Implementowanie sieci CNN; Implementacja głębokiej sieci splotowej za pomocą biblioteki TensorFlow; Klasyfikowanie płci na podstawie zdjęć twarzy za pomocą sieci splotowej; Podsumowanie. R. 16 Modelowanie danych sekwencyjnych za pomocą rekurencyjnych sieci neuronowych: Wprowadzenie do danych sekwencyjnych; Sieci rekurencyjne służące do modelowania sekwencji; Implementowanie wielowarstwowej sieci rekurencyjnej przy użyciu biblioteki TensorFlow do modelowania sekwencji; Przetwarzanie języka za pomocą modelu transformatora; Podsumowanie. R. 17. Generatywne sieci przeciwstawne w zadaniach syntetyzowania nowych danych: Wprowadzenie do generatywnych sieci przeciwstawnych; Implementowanie sieci GAN od podstaw; Poprawianie jakości syntetyzowanych obrazów za pomocą sieci GAN: splotowej i Wassersteina; Inne zastosowania modeli GAN; Podsumowanie. R. 18 Uczenie przez wzmacnianie jako mechanizm podejmowania decyzji w skomplikowanych środowiskach: Wprowadzenie: uczenie z doświadczenia; Podstawy teoretyczne uczenia przez wzmacnianie; Algorytmy uczenia przez wzmacnianie; Implementacja naszego pierwszego algorytmu uczenia przez wzmacnianie; Podsumowanie rozdziału i książki.
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 004 (2 egz.)
Pozycja została dodana do koszyka. Jeśli nie wiesz, do czego służy koszyk, kliknij tutaj, aby poznać szczegóły.
Nie pokazuj tego więcej