Sortowanie
Źródło opisu
ebookpoint BIBLIO
(12)
Książki
(2)
Forma i typ
E-booki
(12)
Książki
(2)
Publikacje dydaktyczne
(1)
Publikacje fachowe
(1)
Dostępność
dostępne
(2)
Placówka
Wypożyczalnia
(2)
Autor
Matuk Konrad
(2)
Sawka Krzysztof
(2)
Allaire J. J
(1)
Barth Antje
(1)
Bombik Wojciech
(1)
Bruce Andrew
(1)
Bruce Peter
(1)
Chollet Francois
(1)
Damji Jules S
(1)
Danch-Wierzchowska Marta
(1)
Das Tathagata
(1)
Fregly Chris
(1)
Gedeck Peter
(1)
Grażyński Andrzej
(1)
Grus Joel
(1)
Grześkowiak Alicja
(1)
Górczyński Robert
(1)
Kamiński Filip
(1)
Lazzeri Francesca
(1)
Lee Denny
(1)
Meryk Radosław
(1)
Mizerska Anna
(1)
Mount John
(1)
Norvig Peter
(1)
Ray Archana Tikayat
(1)
Russell Stuart
(1)
Scherer Magdalena
(1)
Situnayake Daniel
(1)
Sosnowski Zenon A
(1)
Słowiński Radosław
(1)
Walczak Tomasz
(1)
Warden Pete
(1)
Wenig Brooke
(1)
White Ryan T
(1)
Zavarella Luca
(1)
Zumel Nina
(1)
red Piotr Peternek
(1)
Rok wydania
2020 - 2024
(12)
2010 - 2019
(2)
Okres powstania dzieła
2001-
(2)
Kraj wydania
Polska
(14)
Język
polski
(14)
Temat
Programowanie (informatyka)
(2)
Uczenie maszynowe
(2)
Algorytmy
(1)
Arduino (mikrokontroler)
(1)
Matematyka dyskretna
(1)
Mikrokontrolery
(1)
Python (język programowania)
(1)
TensorFlow (biblioteka programistyczna)
(1)
Gatunek
Podręcznik
(2)
Dziedzina i ujęcie
Informatyka i technologie informacyjne
(2)
Matematyka
(1)
14 wyników Filtruj
E-book
W koszyku

Analityka danych jest uważana za wyjątkowo obiecującą dziedzinę wiedzy. Rozwija się błyskawicznie i znajduje coraz to nowsze zastosowania. Profesjonaliści biegli w eksploracji danych i wydobywaniu z nich pożytecznych informacji mogą liczyć na interesującą pracę i bardzo atrakcyjne warunki zatrudnienia. Jednak aby zostać analitykiem danych, trzeba znać matematykę i statystykę, a także nauczyć się programowania. Umiejętności w zakresie uczenia maszynowego i uczenia głębokiego również są ważne. W przypadku tak specyficznej dziedziny, jaką jest nauka o danych, szczególnie istotne jest zdobycie gruntownych podstaw i dogłębne ich zrozumienie.

W tym przewodniku opisano zagadnienia związane z podstawami nauki o danych. Wyjaśniono niezbędne elementy matematyki i statystyki. Przedstawiono także techniki budowy potrzebnych narzędzi i sposoby działania najistotniejszych algorytmów. Książka została skonstruowana tak, aby poszczególne implementacje były jak najbardziej przejrzyste i zrozumiałe. Zamieszczone tu przykłady napisano w Pythonie: jest to język dość łatwy do nauki, a pracę na danych ułatwia szereg przydatnych bibliotek Pythona. W drugim wydaniu znalazły się nowe tematy, takie jak uczenie głębokie, statystyka i przetwarzanie języka naturalnego, a także działania na ogromnych zbiorach danych. Zagadnienia te często pojawiają się w pracy współczesnego analityka danych.

W książce między innymi:

  • elementy algebry liniowej, statystyki i rachunku prawdopodobieństwa
  • zbieranie, oczyszczanie i eksploracja danych
  • algorytmy modeli analizy danych
  • podstawy uczenia maszynowego
  • systemy rekomendacji i przetwarzanie języka naturalnego
  • analiza sieci społecznościowych i algorytm MapReduce

Nauka o danych: bazuj na solidnych podstawach!

Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu dostępu, który można odebrać w bibliotece.
E-book
W koszyku

W ostatnich latach byliśmy świadkami ogromnego postępu technik sztucznej inteligencji, uczenia maszynowego oraz uczenia głębokiego. Konsekwencje tego błyskawicznego rozwoju są odczuwalne w niemal każdej dziedzinie. Wydaje się, że to jedna z tych technologii, które powinny być dostępne dla jak najszerszej grupy ludzi. Dopiero wtedy uczenie głębokie wykorzysta w pełni swój potencjał i stanie się prawdziwym impulsem rozwoju naszej cywilizacji. Co prawda na pierwszy rzut oka ta niesamowita technologia może wydawać się wyjątkowo skomplikowana i trudna do zrozumienia, warto jednak wykorzystać dostępne narzędzia, takie jak biblioteka Keras i język R, aby implementować mechanizmy uczenia głębokiego wszędzie tam, gdzie okażą się przydatne.

Ta książka jest znakomitym przewodnikiem po technikach uczenia głębokiego. Poza wyczerpująco przedstawionymi podstawami znajdziesz tu zasady implementacji tych technik z wykorzystaniem języka R i biblioteki Keras. Dzięki przystępnym wyjaśnieniom i praktycznym przykładom szybko zrozumiesz nawet bardziej skomplikowane zagadnienia uczenia głębokiego. Poznasz koncepcje i dobre praktyki związane z tworzeniem mechanizmów analizy obrazu, przetwarzania języka naturalnego i modeli generatywnych. Przeanalizujesz ponad 30 przykładów kodu uzupełnionego dokładnymi komentarzami. W efekcie szybko przygotujesz się do korzystania z uczenia głębokiego w rozwiązywaniu konkretnych problemów.

W tej książce między innymi:

  • podstawowe koncepcje sztucznej inteligencji, uczenia maszynowego i uczenia głębokiego
  • wprowadzenie do budowy i trenowania sieci neuronowych
  • uczenie głębokie w przetwarzaniu obrazów
  • modele generatywne tworzące obrazy i tekst
  • perspektywy i ograniczenia uczenia głębokiego

Uczenie głębokie: zafascynuj się i zaimplementuj!

Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu dostępu, który można odebrać w bibliotece.
E-book
W koszyku

Ważnym zadaniem inżynierów danych jest kreowanie modeli uczenia maszynowego. Używa się do tego narzędzi do analizy biznesowej, takich jak Power BI. Możliwości Power BI są imponujące, a można je dodatkowo rozbudować. Jedną z ciekawszych metod wzbogacania modelu danych i wizualizacji Power BI jest zastosowanie złożonych algorytmów zaimplementowanych w językach Python i R. W ten sposób można nie tylko tworzyć interesujące wizualizacje danych, ale także pozyskiwać dzięki nim kluczowe dla biznesu informacje.

Dzięki tej książce dowiesz się, jak to zrobić. Zaczniesz od przygotowania środowiska Power BI do używania skryptów w Pythonie i R. Następnie będziesz importować dane z nieobsługiwanych obiektów i przekształcać je za pomocą wyrażeń regularnych i złożonych algorytmów. Nauczysz się wywoływać zewnętrzne interfejsy API i korzystać z zaawansowanych technik w celu przeprowadzenia dogłębnych analiz i wyodrębnienia cennych informacji za pomocą narzędzi statystyki i uczenia maszynowego, a także poprzez zastosowanie optymalizacji liniowej i innych algorytmów. Zapoznasz się również z głównymi cechami statystycznymi zestawów danych i z metodami tworzenia różnych wykresów ułatwiających zrozumienie relacji między zmiennymi.

Najciekawsze zagadnienia:

  • złożone przekształcanie danych w Power BI za pomocą skryptów Pythona i R
  • anonimizacja i pseudonimizacja danych
  • praca z dużymi zestawami danych
  • wartości odstające i brakujące dla danych wielowymiarowych i szeregów czasowych
  • tworzenie złożonych wizualizacji danych

Wyzwól potężną moc Power BI!

Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu dostępu, który można odebrać w bibliotece.
E-book
W koszyku

Platforma Amazon Web Services jest uważana za największą i najbardziej dojrzałą chmurę obliczeniową. Zapewnia bogaty zestaw specjalistycznych narzędzi ułatwiających realizację projektów z zakresu inżynierii danych i uczenia maszynowego. W ten sposób inżynierowie danych, architekci i menedżerowie mogą szybko zacząć używać danych do podejmowania kluczowych decyzji biznesowych. Uzyskanie optymalnej efektywności pracy takich projektów wymaga jednak dobrego rozeznania w możliwościach poszczególnych narzędzi, usług i bibliotek.

Dzięki temu praktycznemu przewodnikowi szybko nauczysz się tworzyć i uruchamiać procesy w chmurze, a następnie integrować wyniki z aplikacjami. Zapoznasz się ze scenariuszami stosowania technik sztucznej inteligencji: przetwarzania języka naturalnego, rozpoznawania obrazów, wykrywania oszustw, wyszukiwania kognitywnego czy wykrywania anomalii w czasie rzeczywistym. Ponadto dowiesz się, jak łączyć cykle rozwoju modeli z pobieraniem i analizą danych w powtarzalnych potokach MLOps. W książce znajdziesz też zbiór technik zabezpieczania projektów i procesów z obszaru inżynierii danych, takich jak stosowanie usługi IAM, uwierzytelnianie, autoryzacja, izolacja sieci, szyfrowanie danych w spoczynku czy postkwantowe szyfrowanie sieci dla danych w tranzycie.

Najciekawsze zagadnienia:

  • narzędzia AWS związane ze sztuczną inteligencją i z uczeniem maszynowym
  • kompletny cykl rozwoju modelu przetwarzania języka naturalnego
  • powtarzalne potoki MLOps
  • uczenie maszynowe w czasie rzeczywistym
  • wykrywanie anomalii i analiza strumieni danych
  • zabezpieczanie projektów i procesów z obszaru inżynierii danych

AWS i inżynieria danych: tak zwiększysz wydajność i obniżysz koszty!

Implementowanie solidnego kompletnego procesu uczenia maszynowego to żmudne zadanie, dodatkowo komplikowane przez szeroki zakres dostępnych narzędzi i technologii. Autorzy wykonali świetną robotę, a jej efekty pomogą zarówno nowicjuszom, jak i doświadczonym praktykom realizować to zadanie z wykorzystaniem możliwości, jakie dają usługi AWS

Brent Rabowsky, danolog w firmie Amazon Web Services

Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu dostępu, który można odebrać w bibliotece.
E-book
W koszyku

Analiza danych albo nauka o danych jest interdyscyplinarną dziedziną, dzięki której hipotezy i dane przekształca się w zrozumiałe przewidywania. Predykcyjna analiza danych przynosi wymierne korzyści w wielu dziedzinach, od polityki począwszy, a na udzielaniu kredytów skończywszy. Osobą odpowiedzialną za tę magię jest analityk danych - człowiek, który zbiera i przygotowuje dane, wybiera technikę modelowania, pisze kod, weryfikuje wyniki swojej pracy, wreszcie komunikuje je interesariuszom. Jak widać, profesja analityka danych jest wyjątkowo atrakcyjna i wyjątkowo wymagająca. Aby określić umiejętności praktyczne wymagane w zawodzie analityka danych, najlepiej prześledzić realizacje konkretnych projektów z wykorzystaniem rzeczywistych danych.

Ta książka jest samouczkiem prezentującym praktyczne aspekty dziesiątek technik, które wykorzystują profesjonalni analitycy danych. Główny nacisk autorzy położyli na zadania: ich zaplanowanie, przygotowanie, realizację i prezentację wyników. Dzięki praktycznemu podejściu z tej pozycji skorzystają zarówno analitycy biznesowi, jak i badacze danych. Pokazano tu, w jakich przypadkach i w jaki sposób należy stosować techniki statystyczne oraz metody uczenia maszynowego. W każdym rozdziale omówiono nowe narzędzia w kontekście rzeczywistych, praktycznych projektów. W rezultacie powstał potężny zbiór przydatnych ćwiczeń napisanych w języku R, opatrzonych wartościowymi wskazówkami, komentarzami i podpowiedziami.

W książce między innymi:

  • zasady zarządzania procesem analizy danych
  • zadania analityka danych
  • przekształcanie danych w celu przygotowania ich do analizy
  • techniki statystyczne i metody uczenia maszynowego w języku R
  • zaawansowane metody modelowania
  • tajniki skutecznego prezentowania wyników analiz

R: jesteś gotów na właściwe wyniki analizy danych?

Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu dostępu, który można odebrać w bibliotece.
E-book
W koszyku
Forma i typ

Obierz kurs na... Kerasa!

Sztuczna inteligencja budzi w ludziach sprzeczne emocje. Niektórzy widzą w niej śmiertelne zagrożenie, inni wprost przeciwnie, dostrzegają ogromną szansę na rozwój nauki. Ci drudzy niestrudzenie poszukują sposobów na to, by nauczyć maszyny sensownego przetwarzania informacji. Jednym z takich sposobów jest rozwijające się dziś intensywnie uczenie maszynowe i towarzyszące mu uczenie głębokie, a technologia ta wymaga umiejętności budowy sieci neuronowych i ich wykorzystywania.

Jeśli chcesz zagłębić się nieco w świat przyszłości i zrozumieć podstawy, na jakich opierają się dzisiejsze rozwiązania w zakresie inteligentnych maszyn, najwyższy czas przyjrzeć się bliżej bibliotece Keras, zaimplementowanej w języku Python. Tematem szkolenia Keras w praktyce. Kurs video. Tworzenie modeli uczenia głębokiego są różne techniki wykorzystywane podczas projektowania i programowania głębokich sieci neuronowych z poziomu biblioteki, która wykorzystuje popularne frameworki, takie jak TensorFlow, CNTK czy Theano. Aby wynieść z kursu jak najwięcej, powinieneś znać język Python. Dodatkowym atutem będzie znajomość ogólnej idei uczenia maszynowego i jego rodzajów.
Sprawdź, jak wykorzystać bibliotekę Keras do swoich celów, i naucz się tworzyć uczące się sieci!

Czego nauczysz się podczas naszego profesjonalnego szkolenia?

  • Poznasz różne rodzaje uczenia głębokiego.
  • Dowiesz się, jak dodawać sieci gęste i konwolucyjne w Kerasie.
  • Nauczysz się tworzyć modele sieci neuronowych.
  • Opanujesz proces uczenia sieci neuronowej.
  • Odkryjesz, jak normalizować dane z wykorzystaniem Kerasa.
  • Zorientujesz się, jak wygląda ogólny schemat działania sieci konwolucyjnej.

Keras w praktyce. Kurs video. Tworzenie modeli uczenia głębokiego to 12 lekcji, podczas których opanujesz korzystanie ze specjalistycznej biblioteki Pythona w stopniu podstawowym. Główny nacisk jest tu położony na poznanie ogólnego konceptu stojącego za określonymi metodami uczenia głębokiego — nie tyle w teorii, ile w praktyce. Podczas kursu wraz z autorem napiszesz kilka projektów, na przykład dotyczących sieci neuronowej zdolnej rozpoznawać cyfry od 0 do 9 lub sieci neuronowej określającej, czy podana recenzja filmu jest pozytywna, czy negatywna.
Co więcej, poznasz różnice między sieciami gęstymi a konwolucyjnymi. Odkryjesz, jak działają sieci konwolucyjne i dlaczego przydają się przy rozwiązywaniu problemów z wizją komputerową. Zobaczysz także, jak stworzyć proste modele, które dokonują klasyfikacji z wykorzystaniem frameworka Keras.

Projektowanie z użyciem Kerasa

Warto wiedzieć, że biblioteka Keras zapewnia użytkownikowi przyjazne API. Do jej obsługi nie jest potrzebna aż tak złożona wiedza jak w przypadku TensorFlow, dlatego naukę warto zacząć właśnie od niej. Keras w praktyce. Kurs video. Tworzenie modeli uczenia głębokiego pozwala oswoić się z biblioteką i pokazuje, jak tworzyć praktyczne projekty. Chociaż w uczeniu głębokim matematyka odgrywa kluczową rolę, ten kurs nie wymaga znajomości jej bardziej złożonych zagadnień: autor starał się zminimalizować potrzebę odwoływania się do kwestii matematycznych.
Nauka tworzenia sieci neuronowych i prostych klasyfikatorów może zaprocentować w przyszłości. Uczenie głębokie jest bardzo szeroką i wymagającą dziedziną, a podczas tego kursu zdobędziesz wiedzę, którą niełatwo przyswoić w inny sposób. Odkryjesz mnóstwo zagadnień związanych z budową sieci neuronowych, trenowaniem tych sieci oraz tworzeniem i testowaniem modeli. To zapewni Ci doskonałe podstawy do dalszej nauki.

Jak odróżnić psa od kota?

Zrozumienie działania sieci neuronowych i reguł rządzących uczeniem głębokim może Ci pomóc w najdziwniejszych problemach. Z wykorzystaniem świeżo zdobytej wiedzy uda Ci się stworzyć prosty klasyfikator, rozpoznający różne kategorie obrazów i przedmiotów, na przykład właściwie przyporządkowujący zdjęcie psa do innego zbioru niż zdjęcie kota, a także bardziej zaawansowany model, zdolny do oceny komentarza tekstowego — zarówno pozytywnego, jak i negatywnego. Efektywne programowanie sieci neuronowych, w tym konwolucyjnych, wymaga znajomości biblioteki, ale także ogólnego kontekstu i prześledzenia sposobu wyodrębniania elementów znaczących ze zbioru surowych danych. To wszystko znajdziesz w tym szkoleniu.
Następnym Twoim krokiem może już być samodzielne wymyślanie i badanie nowych architektur sieci neuronowych i próba użycia ich do rozwiązania danego problemu.

Tylko dla wtajemniczonych

Keras w praktyce. Kurs video. Tworzenie modeli uczenia głębokiego pomoże Ci rozpocząć przygodę z programowaniem sieci neuronowych i uczeniem maszynowym. Ta rozwijająca się prężnie dziedzina informatyki święci dziś triumfy, ponieważ klasyfikatory, segregatory, testery przydają się zawsze i wszędzie. Rozpoznawanie obrazów, przetwarzanie języka naturalnego, przewidywanie ciągów danych, generowanie tekstu i obrazu na podstawie niepełnych danych: to wszystko jest możliwe dzięki temu, że możemy coraz lepiej programować uczące się maszyny. Szacuje się, że w 2020 roku przychody z oprogramowania związanego ze sztuczną inteligencją sięgną 30 miliardów dolarów. Na pewno warto się dowiedzieć, jak i dlaczego to wszystko działa. Kto wie, może będzie to Twój sposób na biznes?


„Just as electricity transformed everything 100 years ago, today I actually have a hard time thinking of an industry that I don’t think AI will transform in the next several years”

Andrew Ng

Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu dostępu, który można odebrać w bibliotece.
Książka
W koszyku
Zawiera: O autorach; O recenzencie; Wprowadzenie: Dla kogo jest ta książka?; O czym jest ta książka?; Co zrobić, aby jak najlepiej wykorzystać tę książkę; Kody źródłowe; Konwencje typograficzne przyjęte w tej książce; I. Podstawowe pojęcia z obszaru matematyki dyskretnej: 1. Podstawowe pojęcia, notacja, teoria mnogości, relacje i funkcje: Czym jest matematyka dyskretna?; Podstawowa teoria mnogości; Funkcje i relacje; Podsumowanie; 2. Logika formalna i dowody matematyczne: Logika formalna i dowodzenie za pomocą tablic prawdy; Dowody wprost; Dowody nie wprost; Dowodzenie przez indukcję matematyczną; Podsumowanie; 3. Obliczenia w systemach o podstawie n: Zrozumieć liczby o podstawie n; Konwersje między różnymi podstawami; Liczby binarne i ich zastosowania; Liczby szesnastkowe i ich zastosowanie; Podsumowanie; 4. Kombinatoryka z użyciem SciPy: Podstawy zliczania; Permutacje i kombinacje obiektów; Alokacja pamięci; Skuteczność algorytmów siłowych; Podsumowanie; 5. Elementy prawdopodobieństwa dyskretnego: Definicja doświadczenie losowe; Definicje zdarzenia elementarne, zdarzenia losowe, przestrzenie prób; Przykład rzut monetą; Przykład rzut wieloma monetami; Definicja miara probabilistyczna; Twierdzenie podstawowe własności prawdopodobieństwa; Przykład sport; Twierdzenie monotoniczność; Twierdzenie zasada włączeń i wyłączeń; Definicja rozkład jednostajny; Twierdzenie obliczanie prawdopodobieństwa; Przykład rzut wieloma monetami; Definicja zdarzenia niezależne; Przykład rzucanie wieloma monetami; Prawdopodobieństwo warunkowe i twierdzenie Bayesa; Bayesowski filtr antyspamowy; Zmienne losowe, średnie i wariancja; Google PageRank (część I); Podsumowanie; II. Zastosowania matematyki dyskretnej w analizie danych i informatyce: 6. Algorytmy algebry liniowej: Zrozumieć układy równań liniowych; Macierze i macierzowe reprezentacje układów równań liniowych; Rozwiązywanie małych układów równań liniowych za pomocą metody eliminacji Gaussa; Rozwiązywanie dużych układów równań liniowych za pomocą NumPy; Podsumowanie; 7. Złożoność algorytmów: Złożoność obliczeniowa algorytmów; Notacja dużego O; Złożoność algorytmów zawierających podstawowe instrukcje sterujące; Złożoność popularnych algorytmów wyszukiwania; Popularne klasy złożoności obliczeniowej; Podsumowanie; Bibliografia; 8. Przechowywanie i wyodrębnianie cech z grafów, drzew i sieci: Zrozumieć grafy, drzewa i sieci; Zastosowania grafów, drzew i sieci; Przechowywanie grafów i sieci; Wyodrębnianie cech z grafów; Podsumowanie; 9. Przeszukiwanie struktur danych i znajdowanie najkrótszych ścieżek: Przeszukiwanie struktur grafowych i drzew; Algorytm przeszukiwania w głąb (DFS); Implementacja algorytmu przeszukiwania w głąb w Pythonie; Problem najkrótszej ścieżki i jego warianty; Znajdowanie najkrótszych ścieżek metodą siłową; Algorytm Dijkstry znajdowania najkrótszych ścieżek; Implementacja algorytmu Dijkstry w Pythonie; Podsumowanie; III. Praktyczne zastosowania matematyki dyskretnej: 10. Analiza regresji za pomocą NumPy i scikit-learn: Zbiór danych; Linie najlepszego dopasowania i metoda najmniejszych kwadratów; Linia najlepszego dopasowania; Dopasowywanie prostej metodą najmniejszych kwadratów w NumPy; Dopasowywanie krzywych metodą najmniejszych kwadratów z użyciem NumPy i SciPy; Dopasowanie płaszczyzn metodą najmniejszych kwadratów z użyciem NumPy i SciPy; Podsumowanie; 11. Wyszukiwanie w sieci za pomocą algorytmu PageRank: Rozwój wyszukiwarek na przestrzeni lat; Google PageRank (część II); Implementacja algorytmu PageRank w Pythonie; Zastosowanie algorytmu na danych rzeczywistych; Podsumowanie; 12. Analiza głównych składowych za pomocą scikit-learn: Wartości i wektory własne, bazy ortogonalne; Redukcja wymiarowości za pomocą analizy głównych składowych; Implementacja metody PCA z scikit-learn; Zastosowanie metody PCA na rzeczywistych danych; Podsumowanie.
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 51 (2 egz.)
E-book
W koszyku

Apache Spark jest oprogramowaniem open source, przeznaczonym do klastrowego przetwarzania danych dostarczanych w różnych formatach. Pozwala na uzyskanie niespotykanej wydajności, umożliwia też pracę w trybie wsadowym i strumieniowym. Framework ten jest również świetnie przygotowany do uruchamiania złożonych aplikacji, włączając w to algorytmy uczenia maszynowego czy analizy predykcyjnej. To wszystko sprawia, że Apache Spark stanowi znakomity wybór dla programistów zajmujących się big data, a także eksploracją i analizą danych.

To książka przeznaczona dla inżynierów danych i programistów, którzy chcą za pomocą Sparka przeprowadzać skomplikowane analizy danych i korzystać z algorytmów uczenia maszynowego, nawet jeśli te dane pochodzą z różnych źródeł. Wyjaśniono tu, jak dzięki Apache Spark można odczytywać i ujednolicać duże zbiory informacji, aby powstawały niezawodne jeziora danych, w jaki sposób wykonuje się interaktywne zapytania SQL, a także jak tworzy się potoki przy użyciu MLlib i wdraża modele za pomocą biblioteki MLflow. Omówiono również współdziałanie aplikacji Sparka z jego rozproszonymi komponentami i tryby jej wdrażania w poszczególnych środowiskach.

W książce:

  • API strukturalne dla Pythona, SQL, Scali i Javy
  • operacje Sparka i silnika SQL
  • konfiguracje Sparka i interfejs Spark UI
  • nawiązywanie połączeń ze źródłami danych: JSON, Parquet, CSV, Avro, ORC, Hive, S3 i Kafka
  • operacje analityczne na danych wsadowych i strumieniowanych
  • niezawodne potoki danych i potoki uczenia maszynowego

Spark: twórz skalowalne i niezawodne aplikacje big data!

Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu dostępu, który można odebrać w bibliotece.
E-book
W koszyku

Metody statystyczne są kluczowym narzędziem w data science, mimo to niewielu analityków danych zdobyło wykształcenie w ich zakresie. Może im to utrudniać uzyskiwanie dobrych efektów. Zrozumienie praktycznych zasad statystyki okazuje się ważne również dla programistów R i Pythona, którzy tworzą rozwiązania dla data science. Kursy podstaw statystyki rzadko jednak uwzględniają tę perspektywę, a większość podręczników do statystyki w ogóle nie zajmuje się narzędziami wywodzącymi się z informatyki.

To drugie wydanie popularnego podręcznika statystyki przeznaczonego dla analityków danych. Uzupełniono je o obszerne przykłady w Pythonie oraz wyjaśnienie, jak stosować poszczególne metody statystyczne w problemach data science, a także jak ich nie używać. Skoncentrowano się też na tych zagadnieniach statystyki, które odgrywają istotną rolę w data science. Wyjaśniono, które koncepcje są ważne i przydatne z tej perspektywy, a które mniej istotne i dlaczego. Co ważne, poszczególne koncepcje i zagadnienia praktyczne przedstawiono w sposób przyswajalny i zrozumiały również dla osób nienawykłych do posługiwania się statystyką na co dzień.

W książce między innymi:

  • analiza eksploracyjna we wstępnym badaniu danych
  • próby losowe a jakość dużych zbiorów danych
  • podstawy planowania eksperymentów
  • regresja w szacowaniu wyników i wykrywaniu anomalii
  • statystyczne uczenie maszynowe
  • uczenie nienadzorowane a znaczenie danych niesklasyfikowanych

Statystyka: klasyczne narzędzia w najnowszych technologiach!

Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu dostępu, który można odebrać w bibliotece.
E-book
W koszyku
Forma i typ

Odpady, szczególnie produkcyjne, są poważnym problemem współczesnej gospodarki. Stanowią duże zagrożenie dla środowiska naturalnego, a społeczność międzynarodowa uznała je za priorytetowy problem globalny. Choć generowania odpadów nie da się zupełnie wyeliminować, pojawiają się coraz nowsze rozwiązania, które minimalizują ich skutki. Z pomocą przychodzi tutaj logistyka zwrotna. Jej głównym celem jest ponowne wprowadzenie do systemu gospodarczego odpadów, które po odpowiednim przetworzeniu mogą stać się surowcami lub półproduktami.

W niniejszej monografii podjęto próbę stworzenia rozwiązań informatycznych wspomagających logistykę zwrotną w tym zakresie. Trzy pierwsze rozdziały tworzą część teoretyczną monografii, natomiast rozdział czwarty obejmuje opracowanie i wnioski z części empirycznej. Założono, że inteligentne przewidywanie wielkości jej strumieni stanowi determinantę skutecznego zarządzania strumieniami odpadowymi. Przeprowadzono szereg eksperymentów polegających na tworzeniu i trenowaniu systemów rozmyto-neuronowych. Badania wykazały, że zastosowanie uczenia maszynowego może przyczynić się do usprawnienia procesów zarządzania logistyką zwrotną w przedsiębiorstwie produkcyjnym i przełożyć się na skuteczniejsze zarządzanie strumieniami odpadów.

Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu dostępu, który można odebrać w bibliotece.
E-book
W koszyku

Praktycznie codziennie korzystamy z osiągnięć sztucznej inteligencji. Mimo to jej potencjał wciąż jest zagadką: nie wiemy, gdzie leżą granice jej rozwoju i jakie jeszcze technologie przyniesie nam ta relatywnie młoda dziedzina nauki. Równocześnie niektóre zastosowania sztucznej inteligencji budzą niepokój i zmuszają do zadawania trudnych pytań. Jakakolwiek próba odpowiedzi jednak wymaga wiedzy o tym, czym w istocie jest sztuczna inteligencja i jakie są jej ograniczenia.

To drugi tom klasycznego podręcznika wiedzy o sztucznej inteligencji. Podobnie jak w wypadku pierwszej części, lektura tej książki nie wymaga wybitnej znajomości tematu. Dzięki przejrzystości tekstu i umiejętnemu unikaniu nadmiernego formalizmu można w dość łatwy sposób zrozumieć kluczowe idee i koncepcje nauki o sztucznej inteligencji. Najnowsze technologiczne osiągnięcia zostały pokazane na tle rozwijającej się wiedzy, również z innych dziedzin inżynierii. Sporo miejsca poświęcono zagadnieniom, które budzą wątpliwości. Mowa tu o wyrafinowanych technikach uczenia maszynowego, modelach językowych czy widzeniu komputerowym, a także o sprawach, które już dziś wymagają najwyższej troski: o etycznych aspektach sztucznej inteligencji, bezpieczeństwie związanych z nią technologii i jej perspektywach.

W drugim tomie:

  • różne modele i koncepcje uczenia maszynowego
  • przetwarzanie języka naturalnego i modele językowe
  • widzenie komputerowe, w tym generowanie obrazów
  • roboty: percepcja, działanie, uczenie
  • perspektywy sztucznej inteligencji

Sztuczna inteligencja: dokąd zmierzasz, technologio?

Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu dostępu, który można odebrać w bibliotece.
Brak okładki
Książka
W koszyku
Zawiera: Wstęp: Konwencje typograficzne przyjęte w tej książce; Korzystanie z przykładowych kodów; Podziękowania; Rozdział 1. Wprowadzenie: Urządzenia z systemem wbudowanym; Ciągły rozwój; Rozdział 2. Informacje wstępne: Do kogo skierowana jest ta książka?; Jaki sprzęt będzie Ci potrzebny?; Jakie oprogramowanie będzie Ci potrzebne?; Czego nauczysz się dzięki tej książce?; Rozdział 3. Wprowadzenie do uczenia maszynowego: Czym właściwie jest uczenie maszynowe?; Proces uczenia głębokiego; Podsumowanie; Rozdział 4. Witaj, świecie TinyML: budowa i trenowanie modelu: Co będziemy budować?; Nasz zestaw narzędzi do uczenia maszynowego; Budowa naszego modelu; Trenowanie naszego modelu; Konwertowanie modelu na potrzeby TensorFlow Lite; Podsumowanie; Rozdział 5. Witaj, świecie TinyML: budowanie aplikacji: Omówienie testów; Budowa pliku z projektem; Omówienie kodu źródłowego; Podsumowanie; Rozdział 6. Witaj, świecie TinyML: uruchomienie aplikacji na mikrokontrolerze: Czym właściwie jest mikrokontroler?; Arduino; SparkFun Edge; Zestaw ST Microelectronics STM32F746G Discovery; Podsumowanie; Rozdział 7. Wykrywanie słowa wybudzającego: budowanie aplikacji: Co będziemy tworzyć?; Architektura aplikacji; Omówienie testów; Nasłuchiwanie słów wybudzających; Uruchomienie aplikacji na mikrokontrolerach; Podsumowanie; Rozdział 8. Wykrywanie słowa wybudzającego: trenowanie modelu: Trenowanie naszego nowego modelu; Wykorzystanie modelu w naszym projekcie; Zasada działania modelu; Trenowanie modelu z własnymi danymi; Podsumowanie; Rozdział 9. Wykrywanie osoby: budowanie aplikacji: Co będziemy budować?; Architektura aplikacji; Omówienie testów; Wykrywanie ludzi; Uruchomienie aplikacji na mikrokontrolerach; Podsumowanie; Rozdział 10. Wykrywanie osoby: trenowanie modelu: Wybór maszyny; Konfiguracja instancji Google Cloud Platform; Wybór platformy programistycznej do treningu; Tworzenie zestawu danych; Trenowanie modelu; TensorBoard; Ocena modelu; Eksportowanie modelu do TensorFlow Lite; Trenowanie dla innych kategorii; Architektura MobileNet; Podsumowanie; Rozdział 11. Magiczna różdżka: budowanie aplikacji: Co będziemy tworzyć?; Architektura aplikacji; Omówienie testów; Wykrywanie gestu; Uruchomienie aplikacji na mikrokontrolerach; Podsumowanie; Rozdział 12. Magiczna różdżka: trenowanie modelu: Trenowanie modelu; Zasada działania modelu; Trenowanie modelu z własnymi danymi; Podsumowanie; Rozdział 13. TensorFlow Lite dla mikrokontrolerów: Kompilatory; Obsługa nowej platformy sprzętowej; Obsługa nowego IDE lub kompilatora; Integrowanie zmian w kodzie projektu z repozytoriami; Wnoszenie swojego wkładu do kodu z otwartym źródłem; Obsługa nowego akceleratora sprzętowego; Format pliku; Przenoszenie operacji TensorFlow Lite Mobile na wersję dla mikrokontrolerów; Podsumowanie; Rozdział 14. Projektowanie własnych aplikacji TinyML: Projektowanie; Czy potrzebny jest mikrokontroler, czy może być większe urządzenie?; Co jest możliwe?; Podążanie czyimiś śladami; Podobne modele do trenowania; Sprawdzenie danych; Magia Czarnoksiężnika z krainy Oz; Poprawnie działająca wersja na komputerze jako pierwszy etap; Rozdział 15. Optymalizacja prędkości działania programu: Prędkość modelu a prędkość ogólna aplikacji; Zmiany sprzętu; Ulepszenia modelu; Kwantyzacja; Etap projektowania produktu; Optymalizacje kodu; Optymalizowanie operacji; Wnoszenie swojego wkładu do kodu z otwartym źródłem; Podsumowanie; Rozdział 16. Optymalizacja poboru mocy: Rozwijanie intuicji; Pomiar rzeczywistego poboru mocy; Oszacowanie poboru mocy modelu; Ulepszenia związane z zużyciem energii; Podsumowanie; Rozdział 17. Optymalizacja modelu i rozmiaru pliku binarnego: Zrozumienie ograniczeń własnego systemu; Oszacowanie zużycia pamięci; Szacunkowe wartości dokładności i rozmiaru modelu przy różnych problemach; Wybór modelu; Zmniejszenie rozmiaru pliku wykonywalnego; Naprawdę malutkie modele; Podsumowanie; Rozdział 18. Debugowanie: Różnica w dokładności między treningiem a wdrożeniem; Różnice liczbowe; Tajemnicze awarie; Podsumowanie; Rozdział 19. Przenoszenie modelu z TensorFlow do TensorFlow Lite: Określenie wymaganych operacji; Operacje obsługiwane w TensorFlow Lite; Przeniesienie wstępnego i końcowego przetwarzania do kodu aplikacji; Implementacja niezbędnych operacji; Optymalizacja operacji; Podsumowanie; Rozdział 20. Prywatność, bezpieczeństwo i wdrażanie: Prywatność; Bezpieczeństwo; Wdrożenie; Podsumowanie; Rozdział 21. Poszerzanie wiedzy: Fundacja TinyML; SIG Micro; Strona internetowa TensorFlow; Inne platformy programistyczne; Twitter; Przyjaciele TinyML; Podsumowanie; Dodatek A Używanie i tworzenie biblioteki Arduino w formacie ZIP; Dodatek B Przechwytywanie dźwięku na Arduino; O autorach; Kolofon.
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 004 (2 egz.)
E-book
W koszyku
Forma i typ

Monografia jest poświęcona przedstawieniu niektórych aspektów szeroko rozumianych odkrywania wiedzy oraz eksploracji danych, a więc niezwykle ważnych, zarówno z punktu widzenia wyzwań teoretycznych, jak też zastosowań działów nowoczesnej informatyki, także w dużym stopniu sztucznej inteligencji. Poszczególne rozdziały dotyczą szeroko rozumianej reprezentacji i eksploracji wiedzy, czyli tematyki głęboko osadzonej w informatyce, ale poprzez swój interdyscyplinarny charakter, dotykające także innych dziedzin.

Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu dostępu, który można odebrać w bibliotece.
E-book
W koszyku

Zeszyt zawiera dziewięć tekstów dotyczących różnych obszarów działalności gospodarczej człowieka oraz problemów społeczno-ekonomicznych. Prezentowane prace łączy ilościowe ujęcie rozpatrywanych zagadnień z wykorzystaniem bogatego arsenału metodycznego. W artykułach poruszono interesujące zagadnienia z obszaru ekonomii i finansów. Ujęto w nich szerokie spektrum metod analitycznych, co decyduje o wysokiej wartości opracowań. Artykuły zebrane w książce poświęcono takim zagadnieniom, jak m.in.: analiza zróżnicowania województw w Polsce ze względu na poziom i społeczno-demograficzne uwarunkowania selektywnej zbiórki odpadów, analiza dzietności i jej uwarunkowań w Polsce w 2021 r., nowoczesne metody imputacji braków danych - porównanie wybranych metod, stabilność polskiego sektora budowlanego w kontekście pandemii COVID-19 oraz wojny na Ukrainie na podstawie spółek notowanych na GPW, budowa i testowanie wsteczne strategii inwestycyjnej bazującej na uczeniu maszynowym

Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu dostępu, który można odebrać w bibliotece.
Pozycja została dodana do koszyka. Jeśli nie wiesz, do czego służy koszyk, kliknij tutaj, aby poznać szczegóły.
Nie pokazuj tego więcej