Sortowanie
Źródło opisu
ebookpoint BIBLIO
(10)
IBUK Libra
(4)
Książki
(1)
Forma i typ
E-booki
(14)
Książki
(1)
Publikacje fachowe
(1)
Dostępność
dostępne
(1)
Placówka
Wypożyczalnia
(1)
Autor
Walczak Tomasz
(2)
Żulicki Remigiusz
(2)
Barth Antje
(1)
Bombik Wojciech
(1)
Bruce Andrew
(1)
Bruce Peter
(1)
Danch-Wierzchowska Marta
(1)
Densmore James
(1)
Eremenko Kirill
(1)
Fregly Chris
(1)
Gedeck Peter
(1)
Grażyński Andrzej
(1)
Grus Joel
(1)
Górczyński Robert
(1)
Housley Matt
(1)
Kamiński Filip
(1)
Matuk Konrad
(1)
Meryk Radosław
(1)
Mount George
(1)
Natingga Dávid
(1)
Nield Thomas
(1)
Raviv Gil
(1)
Reis Joe
(1)
Sawka Krzysztof
(1)
Tanimura Cathy
(1)
Watrak Andrzej
(1)
Werner Grzegorz
(1)
Rok wydania
2020 - 2024
(13)
2010 - 2019
(2)
Okres powstania dzieła
2001-
(1)
Kraj wydania
Polska
(15)
Język
polski
(13)
angielski
(2)
Temat
Algorytmy
(1)
Data science
(1)
Statystyka matematyczna
(1)
Uczenie się maszyn
(1)
Gatunek
Praca zbiorowa
(2)
Podręcznik
(1)
Dziedzina i ujęcie
Informatyka i technologie informacyjne
(1)
15 wyników Filtruj
Brak okładki
Książka
W koszyku
Algorytmy Data Science : siedmiodniowy przewodnik / Dávid Natingga ; tłum. Andrzej Grażyński. - Wyd. 2. - Gliwice : Helion , cop. 2019. - 206, [2] s. : rys., tab., wykresy, wzory ; 24 cm.
Rozdział 1. Klasyfikacja na podstawie najbliższego sąsiedztwa. Subiektywne odczuwanie temperatury. Implementacja algorytmu k najbliższych sąsiadów. Dane wejściowe. Wynik klasyfikacji. Wizualizacja. Mapa Włoch przykład doboru wartości k. Analiza. Skalowanie danych prognozowanie statusu własności. Analiza. Nieeuklidesowe metryki odległości punktów klasyfikowanie tekstów. Analiza. Klasyfikowania tekstów ciąg dalszy wielowymiarowy algorytm k-NN. Analiza. Podsumowanie. Problemy. Subiektywne odczuwanie temperatury. Mapa Włoch przykład doboru wartości k. Status własności. Analiza. Rozdział 2. Naiwny klasyfikator bayesowski. Testy medyczne podstawowe zastosowanie twierdzenia Bayesa. Analiza. Podstawowe twierdzenie Bayesa i jego rozszerzenie. Twierdzenie Bayesa. Dowód. Rozszerzone twierdzenie Bayesa. Dowód. Zagramy w szachy? niezależne zdarzenia warunkujące. Analiza. Implementacja naiwnego klasyfikatora bayesowskiego. Dane wejściowe. Wynik. Zagramy w szachy? częściowo zależne zdarzenia warunkujące. Analiza. Dane wejściowe. Wynik. Chłopak czy dziewczyna? twierdzenie Bayesa dla ciągłych zmiennych losowych. Analiza. Podsumowanie. Problemy. Analiza. Rozdział 3. Drzewa decyzyjne. Pływamy? reprezentowanie danych w postaci drzewa decyzyjnego. Elementy teorii informacji. Entropia informacyjna. Przykład losowe rzucanie monetą. Definicja. Zysk informacyjny. Pływamy? obliczanie zysku informacyjnego. Algorytm ID3 konstruowanie drzewa decyzyjnego. Pływamy? budowanie drzewa decyzyjnego. Implementacja w języku Python. Dane wejściowe. Wynik. Klasyfikowanie danych za pomocą drzew decyzyjnych. Przykład pływamy czy nie? Przykład gra w szachy pod chmurką. Analiza. Dane wejściowe. Wynikowe drzewo decyzyjne. Klasyfikacja. Na zakupy przykład niespójnych danych. Analiza. Podsumowanie. Problemy. Analiza. Rozdział 4. Lasy losowe. Ogólne zasady konstruowania lasów losowych. Pływamy? klasyfikacja za pomocą lasu losowego. Analiza. Konstruowanie lasu losowego. Losowe drzewo decyzyjne nr 0. Losowe drzewo decyzyjne nr 1. Wynikowy las losowy. Klasyfikowanie cechy na podstawie lasu losowego. Implementacja algorytmu konstruowania lasu losowego. Dane wejściowe. Wynik. Przykład zagramy w szachy? Analiza. Konstruowanie lasu losowego. Losowe drzewo decyzyjne nr 0. Losowe drzewa decyzyjne nr 1, 2 i 3. Wynikowy las losowy. Klasyfikacja w drodze głosowania. Dane wejściowe. Wynik. Idziemy na zakupy? wnioskowanie z niespójnych danych i miara wiarygodności wyniku. Analiza. Dane wejściowe. Wynik. Podsumowanie. Problemy. Analiza. Dane wejściowe. Wynik. Rozdział 5. Klasteryzacja. Dochód gospodarstwa domowego niski czy wysoki? Algorytm k-średnich. Początkowy zbiór centroidów. Wyznaczanie centroidu klastera. Przykład wykorzystanie algorytmu k-średnich do klasyfikacji dochodów. Klasyfikowanie przez klasteryzację prognozowanie płci nieznanej osoby. Analiza. Implementacja algorytmu k-średnich. Dane wejściowe. Wynik grupowania. Status własności dobór optymalnej liczby klasterów. Analiza. Dane wejściowe. Wynik podział między dwa klastery. Wynik podział między trzy klastery. Wynik podział między cztery klastery. Wynik podział między pięć klasterów. Klasyfikowanie dokumentów semantyczne znaczenie klasteryzacji. Analiza. Dane wejściowe. Wynik podział między dwa klastery. Wynik podział między trzy klastery. Wynik podział między pięć klasterów. Podsumowanie. Problemy. Analiza. Dane wejściowe. Dwa klastery. Trzy klastery. Cztery klastery. Pięć klasterów. Wybór optymalnej liczby klasterów przy użyciu walidacji krzyżowej. Rozdział 6. Analiza regresji. Konwersja temperatur regresja liniowa dla danych doskonałych. Rozwiązanie analityczne. Metoda najmniejszych kwadratów w regresji liniowej. Implementacja analizy regresji liniowej w Pythonie. Kod programu. Wynik. Wizualizacja. Regresja dla danych pomiarowych prognozowanie wagi na podstawie wzrostu. Analiza. Kod programu. Wynik. Metoda spadku gradientowego i jej implementacja. Szczegóły algorytmu. Implementacja w Pythonie. Dane wejściowe. Wynik. Wizualizacja porównanie z metodą analityczną. Przewidywanie czasu przelotu na podstawie odległości. Analiza. Kod programu. Wynik. Obliczenia balistyczne model nieliniowy. Analiza. Kod programu. Wynik. Podsumowanie. Problemy. Analiza. Kod programu. Wynik. Wizualizacja. Rozdział 7. Analiza szeregów czasowych. Zysk w biznesie analiza trendu. Analiza. Kod programu. Wynik. Wizualizacja. Konkluzja. Sprzedaż w sklepie internetowym analiza sezonowości. Analiza. Analiza trendu. Kod programu. Wynik. Wizualizacja. Analiza sezonowości. Wizualizacja. Podsumowanie. Problemy. Analiza. Kod programu. Wynik. Wizualizacja. Dodatek A Podstawy języka Python. Przykład. Komentarze. Typy danych. Int. Przykład example02_int.py. Wynik. Float. Przykład example03_float.py. Wynik. Napis. Przykład example04_string.py. Wynik. Krotka. Przykład example05_tuple.py. Wynik. Lista. Przykład example06_list.py. Wynik. Zbiór. Przykład example07_set.py. Wynik. Słownik. Przykład example08_dictionary.py. Wynik. Przepływ sterowania. Instrukcje warunkowe. Przykład example09_if_else_elif.py. Wynik. Pętla for. Przykład example10_for_loop_range.py. Wynik. Przykład example11_for_loop_list.py. Wynik. Przykład example12_for_loop_set.py. Wynik. Pętla while. Przykład example13_while_loop.py. Wynik. Instrukcje break i continue. Przykład example14_break_continue.py. Wynik. Funkcje. Przykład example15_function.py. Wynik. Wejście-wyjście programu. Argumenty wywołania programu. Przykład example16_arguments.py. Wynik. Operacje na plikach. Dodatek B. Statystyka. Podstawowe koncepcje. Notacja. Podstawowe pojęcia. Wnioskowanie bayesowskie. Rozkład normalny Gaussa. Walidacja krzyżowa. Testowanie A/B. Dodatek C. Słownik pojęć, algorytmów i metod Data Science.
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 004 (2 egz.)
E-book
W koszyku

Język SQL został stworzony jako narzędzie do przetwarzania danych. Mimo że zwykle jest używany do pracy z bazami danych, jego możliwości są o wiele większe. Poprawny kod SQL ułatwia przetwarzanie potężnych zbiorów danych z dużą szybkością. Szczególnie obiecującą perspektywą jest zastosowanie języka SQL na wielkich zbiorach danych przechowywanych w chmurze. Dzięki nieco bardziej złożonym konstrukcjom SQL analityk danych może z dużą efektywnością wydobywać z nich wiedzę.

Ta praktyczna książka jest przeznaczona dla analityków danych i danologów, którzy chcą używać SQL-a do eksploracji dużych zbiorów danych. Pokazuje zarówno popularne, jak i nieco mniej znane techniki budowania zapytań SQL, dzięki czemu możliwe staje się rozwiązywanie nawet bardzo zawiłych problemów i optymalne wykorzystanie właściwości tego języka w pracy na danych. W nowy, innowacyjny sposób przedstawiono tu takie pojęcia jak złączenia, funkcje okna, podzapytania i wyrażenia regularne. Zademonstrowano, jak łączyć różne techniki, aby szybciej osiągać cele za pomocą łatwego do zrozumienia, czytelnego kodu. Opisywany materiał został zilustrowany licznymi przykładami zapytań SQL, dzięki czemu można płynnie przejść do rozwiązywania konkretnych problemów z zakresu przetwarzania, analizy i eksploracji danych.

Najciekawsze zagadnienia:

  • przygotowywanie danych do analizy
  • analizy szeregów czasowych z wykorzystaniem SQL
  • analizy kohortowe do badania zachodzących zmian
  • analiza tekstu za pomocą zaawansowanych funkcji i operatorów SQL
  • wykrywanie odstających wartości
  • analizy eksperymentów (testy A/B)

SQL: tak wyciągniesz z danych rzetelne wnioski!

Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu dostępu, który można odebrać w bibliotece.
E-book
W koszyku
Forma i typ
Gatunek
Zwroty artystyczne Kategoria „zwrotu” w badaniach nad kulturą od kilkunastu lat wywołuje zainteresowanie u przedstawicieli różnych dziedzin humanistyki. Pisano wiele na temat performative turn, interpretative turn, postcolonial turn, translational turn, spatial turn, iconic turn itp. Czy sztuka jest tylko jednym z obszarów, na których owe zwroty dokonują się, czy też można mówić zwrocie artystycznym, jako szczególnej odmianie? Sugerujemy rozważenie tego zagadnienia nie tylko w odniesieniu do obecnego stanu kultury, a również przy wzięciu pod uwagę wcześniejszych okresów dziejów. Proponujemy wzięcie pod uwagę szerokiego sposobu rozumienia pojęcia „zwrot”. Może ono być przedmiotem rozważań o zasięgu ogólnokulturowym, ale można również odnieść je do określonej dziedziny sztuki, np. zachodzącej w niej przemiany stylistycznej, czy wreszcie nagłej modyfikacji postawy twórczej określonego artysty. Prezentujemy więc z jednej strony na artykuły dotyczące problematyki szeroko pojętych „wstrząsów” kulturowych i artystycznych, „zmącenia” zakładanych porządków, jak teksty omawiające konkretne przypadki twórczości jawiącej się jako działalność meandryczna, przebiegająca drogą kolejnych turns.
Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu PIN. Po odbiór kodu PIN zapraszamy do biblioteki.
E-book
W koszyku

Analityka danych jest uważana za wyjątkowo obiecującą dziedzinę wiedzy. Rozwija się błyskawicznie i znajduje coraz to nowsze zastosowania. Profesjonaliści biegli w eksploracji danych i wydobywaniu z nich pożytecznych informacji mogą liczyć na interesującą pracę i bardzo atrakcyjne warunki zatrudnienia. Jednak aby zostać analitykiem danych, trzeba znać matematykę i statystykę, a także nauczyć się programowania. Umiejętności w zakresie uczenia maszynowego i uczenia głębokiego również są ważne. W przypadku tak specyficznej dziedziny, jaką jest nauka o danych, szczególnie istotne jest zdobycie gruntownych podstaw i dogłębne ich zrozumienie.

W tym przewodniku opisano zagadnienia związane z podstawami nauki o danych. Wyjaśniono niezbędne elementy matematyki i statystyki. Przedstawiono także techniki budowy potrzebnych narzędzi i sposoby działania najistotniejszych algorytmów. Książka została skonstruowana tak, aby poszczególne implementacje były jak najbardziej przejrzyste i zrozumiałe. Zamieszczone tu przykłady napisano w Pythonie: jest to język dość łatwy do nauki, a pracę na danych ułatwia szereg przydatnych bibliotek Pythona. W drugim wydaniu znalazły się nowe tematy, takie jak uczenie głębokie, statystyka i przetwarzanie języka naturalnego, a także działania na ogromnych zbiorach danych. Zagadnienia te często pojawiają się w pracy współczesnego analityka danych.

W książce między innymi:

  • elementy algebry liniowej, statystyki i rachunku prawdopodobieństwa
  • zbieranie, oczyszczanie i eksploracja danych
  • algorytmy modeli analizy danych
  • podstawy uczenia maszynowego
  • systemy rekomendacji i przetwarzanie języka naturalnego
  • analiza sieci społecznościowych i algorytm MapReduce

Nauka o danych: bazuj na solidnych podstawach!

Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu dostępu, który można odebrać w bibliotece.
E-book
W koszyku
Forma i typ
Czy sztuczna inteligencja pozbawia nas pracy? Algorytmy przejmują władzę nad światem? Czy big data sprawia, że jesteśmy bezustannie inwigilowani, a ogromna ilość danych zastępuje ekspertów i naukowców? Cokolwiek sądzimy na te tematy, jedno jest pewne – istnieje heterogeniczne środowisko ludzi zajmujących się tzw. „sztuczną inteligencją” czy tzw. „big data” od strony technicznej oraz metodologicznej. Pole ich działania nazywane jest data science, a oni – data scientists. Publikacja to pierwsza monografia socjologiczna dotycząca data science i pierwsza praca w naukach społecznych, w której data science zostało zbadane jako społeczny świat w rozumieniu Adele E. Clarke. Podejście to pozwala spojrzeć na data science, nazwane dekadę wstecz w „Harvard Business Review” „najseksowniejszym zawodem XXI wieku”, zarówno z perspektywy jego uczestników, jak i z lotu ptaka, w relacji do akademii, biznesu, prawa, mediów czy polityki.
Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu PIN. Po odbiór kodu PIN zapraszamy do biblioteki.
E-book
W koszyku
Forma i typ

Czy sztuczna inteligencja pozbawia nas pracy? Algorytmy przejmują władzę nad światem? Czy big data sprawia, że jesteśmy bezustannie inwigilowani, a ogromna ilość danych zastępuje ekspertów i naukowców? Cokolwiek sądzimy na te tematy, jedno jest pewne - istnieje heterogeniczne środowisko ludzi zajmujących się tzw. "sztuczną inteligencją" czy tzw. "big data" od strony technicznej oraz metodologicznej. Pole ich działania nazywane jest data science, a oni - data scientists.

Publikacja to pierwsza monografia socjologiczna dotycząca data science i pierwsza praca w naukach społecznych, w której data science zostało zbadane jako społeczny świat w rozumieniu Adele E. Clarke. Podejście to pozwala spojrzeć na data science, nazwane dekadę wstecz w "Harvard Business Review" "najseksowniejszym zawodem XXI wieku", zarówno z perspektywy jego uczestników, jak i z lotu ptaka, w relacji do akademii, biznesu, prawa, mediów czy polityki.

Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu dostępu, który można odebrać w bibliotece.
E-book
W koszyku
Forma i typ
Gatunek
In this issue of the journal “Econometrics. Ekonometria. Advances in Applied Data Analysis” five articles are published. Necmi Gürsakal, Fırat Melih Yilmaz and Erginbay Uğurlu describe opportunity windows in time series data using the sliding window technique. The authors were also looking for other possibilities to use this technique. In the next article, Iwona Bąk and Katarzyna Cheba, show the use of fuzzy cognitive maps in the economic sciences. The authors make an expert assessment of the relationship existing between selected indicators carried out using Fuzzy Cognitive Maps on the example of goals in Strategy for Sustainable Development. 2030 Agenda. The paper by Filip Wójcik and Michał Górnik concerns the improvement of e-commerce recommendation systems with deep hybrid collaborative filtering with content. Thanks to their proposal of utilizing flexible neural network architecture called Deep Hybrid Collaborative Filtering with Content Model (DHCF) stacked on top of classic methods, they intended to provide better shopping suggestions for customers on the e-commerce platform. The next paper, by Wiktor Ejsmont and Janusz Łyko, discusses the health value added of healthcare entities. In the article, the index representing the patient’s health condition and its changes before and after being treated by a given entity are described. The study of corporate social responsibility as a way to sustainable employment is the subject of the article by Karolina Muszyńska, who attempted to identify the relationship between the declared activities in line with corporate social responsibility and the implementation of diversity management concepts.
Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu PIN. Po odbiór kodu PIN zapraszamy do biblioteki.
E-book
W koszyku

Platforma Amazon Web Services jest uważana za największą i najbardziej dojrzałą chmurę obliczeniową. Zapewnia bogaty zestaw specjalistycznych narzędzi ułatwiających realizację projektów z zakresu inżynierii danych i uczenia maszynowego. W ten sposób inżynierowie danych, architekci i menedżerowie mogą szybko zacząć używać danych do podejmowania kluczowych decyzji biznesowych. Uzyskanie optymalnej efektywności pracy takich projektów wymaga jednak dobrego rozeznania w możliwościach poszczególnych narzędzi, usług i bibliotek.

Dzięki temu praktycznemu przewodnikowi szybko nauczysz się tworzyć i uruchamiać procesy w chmurze, a następnie integrować wyniki z aplikacjami. Zapoznasz się ze scenariuszami stosowania technik sztucznej inteligencji: przetwarzania języka naturalnego, rozpoznawania obrazów, wykrywania oszustw, wyszukiwania kognitywnego czy wykrywania anomalii w czasie rzeczywistym. Ponadto dowiesz się, jak łączyć cykle rozwoju modeli z pobieraniem i analizą danych w powtarzalnych potokach MLOps. W książce znajdziesz też zbiór technik zabezpieczania projektów i procesów z obszaru inżynierii danych, takich jak stosowanie usługi IAM, uwierzytelnianie, autoryzacja, izolacja sieci, szyfrowanie danych w spoczynku czy postkwantowe szyfrowanie sieci dla danych w tranzycie.

Najciekawsze zagadnienia:

  • narzędzia AWS związane ze sztuczną inteligencją i z uczeniem maszynowym
  • kompletny cykl rozwoju modelu przetwarzania języka naturalnego
  • powtarzalne potoki MLOps
  • uczenie maszynowe w czasie rzeczywistym
  • wykrywanie anomalii i analiza strumieni danych
  • zabezpieczanie projektów i procesów z obszaru inżynierii danych

AWS i inżynieria danych: tak zwiększysz wydajność i obniżysz koszty!

Implementowanie solidnego kompletnego procesu uczenia maszynowego to żmudne zadanie, dodatkowo komplikowane przez szeroki zakres dostępnych narzędzi i technologii. Autorzy wykonali świetną robotę, a jej efekty pomogą zarówno nowicjuszom, jak i doświadczonym praktykom realizować to zadanie z wykorzystaniem możliwości, jakie dają usługi AWS

Brent Rabowsky, danolog w firmie Amazon Web Services

Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu dostępu, który można odebrać w bibliotece.
E-book
W koszyku

Ze względu na gwałtowny rozwój inżynierii danych, jaki nastąpił w ciągu ostatniej dekady, wielu inżynierów oprogramowania, badaczy i analityków danych zaczęło odczuwać potrzebę kompleksowego spojrzenia na tę praktykę. Dzięki tej praktycznej książce zawierającej opis najlepszych technologii dostępnych w ramach frameworka cyklu życia inżynierii danych, dowiesz się, jak planować i budować systemy, które mają zaspokoić potrzeby Twojej organizacji i klientów.

Autorzy, Joe Reis i Matt Housley, przeprowadzą Cię przez cykl życia inżynierii danych i pokażą, jak połączyć różne technologie chmurowe, aby spełnić potrzeby konsumentów danych w dolnej części strumienia przetwarzania. Dzięki lekturze tej książki dowiesz się, jak zastosować koncepcje generowania, pozyskiwania, orkiestracji, przekształcania, przechowywania i zarządzania danymi - kluczowe w każdym środowisku danych, niezależnie od wykorzystywanej technologii.

Dzięki książce:

  • Uzyskasz zwięzły przegląd całego środowiska inżynierii danych.
  • Nauczysz się oceniać problemy inżynierii danych i stosować kompleksowe frameworki najlepszych praktyk.
  • Dowiesz się jak przebić się przez szum marketingowy i wybrać odpowiednie technologie, architekturę danych i procesy?
  • Nauczysz się wykorzystywać cykl życia inżynierii danych do zaprojektowania i zbudowania solidnej architektury.
  • Poznasz mechanizmy zarządzania danymi i bezpieczeństwa w całym cyklu życia inżynierii danych.

"Świat danych ewoluuje już od jakiegoś czasu. Najpierw byli projektanci. Następnie administratorzy baz danych. Potem CIO. Następnie architekci danych. Ta książka sygnalizuje kolejny krok w ewolucji i dojrzałości branży. Jest to lektura obowiązkowa dla każdego, kto uczciwie podchodzi do swojego zawodu i kariery".

Bill Inmon, twórca hurtowni danych

"Inżynieria danych w praktyce" to świetne wprowadzenie do branży przenoszenia, przetwarzania i obsługi danych. Gorąco polecam ją każdemu, kto chce być na bieżąco z inżynierią danych lub analizą oraz wszystkim osobom zajmującym się danymi, którzy chcą uzupełnić luki w swojej wiedzy".

Jordan Tigani, założyciel i dyrektor generalny firmy MotherDuck oraz inżynier-założyciel i współtwórca firmy BigQuery

Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu dostępu, który można odebrać w bibliotece.
E-book
W koszyku
Forma i typ
Data Science szturmem zdobyło nowe obszary – wszystko jest większe, szybsze i lepsze. Większe możliwości obliczeniowe wprowadziły uczenie maszynowe i głębokie uczenie maszynowe na rynek. Tworzenie sztucznych sieci neuronowe jest znacznie prostsze. Sztuczna inteligencja zrewolucjonizowała wiele branż. Rozwój technologii byłby niemożliwy bez Data Science. Poznanie podstaw tej nauki otwiera wiele drzwi, bo specjaliści danych potrzebni są w wielu dziedzinach. Data Science jest wyjątkowo obiecującym obszarem prac i badań. Jeśli chcesz zrobić krok w stronę swojej kariery w Data Science, książka Kluczowe kompetencje specjalisty danych jest dla Ciebie. Jest to publikacja, która w sposób kompleksowy omawia takie kwestie jak: • gromadzenie danych, • przygotowanie danych, • analiza danych, • wizualizacja danych, • prezentacja danych. Część I wprowadzi Cię w świat wszechobecnych danych i najważniejszych zasad Data Science, które pomogą Ci pogłębić posiadaną wiedzę. Część II przeprowadzi Cię przez etap gromadzenia i analizy danych. W Części III dowiesz się, jak najlepiej zwizualizować i zaprezentować wyniki swojej pracy.
Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu PIN. Po odbiór kodu PIN zapraszamy do biblioteki.
E-book
W koszyku

Rosnąca dostępność danych sprawiła, że data science i uczenie maszynowe są powszechnie używane do przeróżnych celów. Równocześnie wiele osób pomija analizy matematyczne przed rozpoczęciem przetwarzania danych. A to wiąże się z ryzykiem popełnienia istotnych błędów już na etapie projektowania danego systemu. Dopiero dogłębne zrozumienie niektórych koncepcji matematycznych i umiejętność ich praktycznego zastosowania sprawia, że kandydat na analityka danych ma szansę osiągnąć poziom profesjonalisty.

To książka przeznaczona dla osób, które chcą dobrze zrozumieć matematyczne podstawy nauki o danych i nauczyć się stosowania niektórych koncepcji w praktyce. Wyjaśniono tu takie zagadnienia jak rachunek różniczkowy i całkowy, rachunek prawdopodobieństwa, algebra liniowa i statystyka, pokazano także, w jaki sposób posługiwać się nimi w regresji liniowej, regresji logistycznej i w tworzeniu sieci neuronowych. Poszczególne tematy zostały omówione zrozumiale, przystępnie, bez naukowego żargonu, za to z licznymi praktycznymi przykładami, co dodatkowo ułatwia przyswojenie koncepcji i prawideł matematyki. Opanowanie zawartej tu wiedzy pozwala uniknąć wielu kosztownych błędów projektowych i trafniej wybierać optymalne rozwiązania!

Dzięki książce nauczysz się:

  • używać kodu Pythona i jego bibliotek do eksplorowania koncepcji matematycznych
  • posługiwać się regresją liniową i regresją logistyczną
  • opisywać dane metodami statystycznymi i testować hipotezy
  • manipulować wektorami i macierzami
  • łączyć wiedzę matematyczną z użyciem modeli regresji
  • unikać typowych błędów w stosowaniu matematyki w data science

Zrozum matematykę i efektywnie używaj danych!

Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu dostępu, który można odebrać w bibliotece.
E-book
W koszyku

Poprawnie zaprojektowane i wdrożone potoki danych mają kluczowe znaczenie dla pomyślnej analizy danych, a także w trakcie uczenia maszynowego. Pozyskanie ogromnych ilości danych z różnych źródeł najczęściej nie stanowi problemu. Nieco trudniejsze jest zaprojektowanie procesu ich przetwarzania w celu dostarczenia kontekstu w taki sposób, aby efektywnie korzystać z posiadanych danych w codziennej pracy organizacji i podejmować dzięki nim rozsądne decyzje.

Oto zwięzły przewodnik przeznaczony dla inżynierów danych, którzy chcą poznać zasady implementacji potoków danych. Wyjaśnia najważniejsze pojęcia związane z potokami danych, opisuje zasady ich tworzenia i implementacji, prezentuje także najlepsze praktyki stosowane przez liderów w branży analizy danych. Dzięki książce zrozumiesz, w jaki sposób potoki danych działają na nowoczesnym stosie danych, poznasz też typowe zagadnienia, które trzeba przemyśleć przed podjęciem decyzji dotyczących implementacji. Dowiesz się, jakie są zalety samodzielnego opracowania rozwiązania, a jakie - zakupu gotowego produktu. Poznasz również podstawowe koncepcje, które mają zastosowanie dla frameworków typu open source, produktów komercyjnych i samodzielnie opracowywanych rozwiązań.

Dowiedz się:

  • czym jest potok danych i na czym polega jego działanie
  • jak się odbywa przenoszenie i przetwarzanie danych w nowoczesnej infrastrukturze
  • jakie narzędzia są szczególnie przydatne do tworzenia potoków danych
  • jak używać potoków danych do analizy i tworzenia raportów
  • jakie są najważniejsze aspekty obsługi potoków, ich testowania i rozwiązywania problemów

Poznaj najlepsze praktyki projektowania i implementacji potoków danych!

Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu dostępu, który można odebrać w bibliotece.
E-book
W koszyku
Forma i typ

Czy praca na danych kojarzy Ci się z frustrującym ręcznym wklejaniem i oczyszczaniem danych w Excelu? A może tracisz mnóstwo energii na importowanie nieuporządkowanych danych pochodzących z różnych źródeł? Być może podejrzewasz, że Twoje arkusze kryją mnóstwo wartościowych informacji, ale nie wiesz, w jaki sposób je wydobyć i ile godzin musisz na to poświęcić? A może spędzasz sporo czasu na tworzeniu skomplikowanych raportów w Power BI lub programowaniu baz danych SQL Server? Dzięki wiedzy zawartej w tej książce wykonasz te zadania prościej i szybciej, a efekty będą o wiele bardziej niezawodne!

Ten praktyczny przewodnik po narzędziu Power Query nauczy Cię efektywnie przetwarzać dane w Excelu: importować, oczyszczać, przekształcać i wydobywać potrzebne informacje. Dowiesz się, jak sprawnie wykonywać typowe zadania i prace analityczne, jak zwiększyć swoją skuteczność dzięki opanowaniu podstaw języka M oraz jak zautomatyzować proces przygotowywania danych do przetwarzania. Zapoznasz się z możliwościami Microsoft Cognitive Services oraz konektora Power Query Web, a także z wykorzystaniem sztucznej inteligencji do rozpoznawania treści tekstu. Nabyte umiejętności będziesz mógł przetestować w realistycznym projekcie, któremu poświęcono ostatni rozdział!

W książce między innymi:

  • solidne podstawy pracy z narzędziem Power Query
  • automatyzacja operacji na danych
  • proste i zaawansowane techniki dekompozycji tabel
  • tworzenie procedur w języku M
  • pozyskiwanie informacji z danych tekstowych i sieci społecznościowych

Power Query i Power BI: sprostasz wyzwaniu przetwarzania danych!

Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu dostępu, który można odebrać w bibliotece.
E-book
W koszyku

Metody statystyczne są kluczowym narzędziem w data science, mimo to niewielu analityków danych zdobyło wykształcenie w ich zakresie. Może im to utrudniać uzyskiwanie dobrych efektów. Zrozumienie praktycznych zasad statystyki okazuje się ważne również dla programistów R i Pythona, którzy tworzą rozwiązania dla data science. Kursy podstaw statystyki rzadko jednak uwzględniają tę perspektywę, a większość podręczników do statystyki w ogóle nie zajmuje się narzędziami wywodzącymi się z informatyki.

To drugie wydanie popularnego podręcznika statystyki przeznaczonego dla analityków danych. Uzupełniono je o obszerne przykłady w Pythonie oraz wyjaśnienie, jak stosować poszczególne metody statystyczne w problemach data science, a także jak ich nie używać. Skoncentrowano się też na tych zagadnieniach statystyki, które odgrywają istotną rolę w data science. Wyjaśniono, które koncepcje są ważne i przydatne z tej perspektywy, a które mniej istotne i dlaczego. Co ważne, poszczególne koncepcje i zagadnienia praktyczne przedstawiono w sposób przyswajalny i zrozumiały również dla osób nienawykłych do posługiwania się statystyką na co dzień.

W książce między innymi:

  • analiza eksploracyjna we wstępnym badaniu danych
  • próby losowe a jakość dużych zbiorów danych
  • podstawy planowania eksperymentów
  • regresja w szacowaniu wyników i wykrywaniu anomalii
  • statystyczne uczenie maszynowe
  • uczenie nienadzorowane a znaczenie danych niesklasyfikowanych

Statystyka: klasyczne narzędzia w najnowszych technologiach!

Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu dostępu, który można odebrać w bibliotece.
E-book
W koszyku

Sukces przedsiębiorstwa zależy od jakości podejmowanych decyzji. Spośród strategii, które wspierają ten proces, na szczególną uwagę zasługuje zastosowanie analizy danych. Jest to jednak dość złożona dziedzina. Podstawowym narzędziem wielu analityków danych jest arkusz kalkulacyjny. Ma on tę zaletę, że ułatwia solidne zrozumienie prawideł statystyki i analizy danych. Po zdobyciu takich podstaw warto jednak pójść dalej i nauczyć się eksploracyjnej analizy danych za pomocą języków programowania.

Dzięki tej książce przejście od pracy z arkuszami Excela do samodzielnego tworzenia kodu w Pythonie i R będzie płynne i bezproblemowe. Rozpoczniesz od ugruntowania swoich umiejętności w Excelu i dogłębnego zrozumienia podstaw statystyki i analizy danych. Ułatwi Ci to rozpoczęcie pisania kodu w języku R i w Pythonie. Dowiesz się, jak dokładnie przebiega proces oczyszczania danych i ich analizy w kodzie napisanym w języku R. Następnie zajmiesz się poznawaniem Pythona. Jest to wszechstronny, łatwy w nauce i potężny język programowania, ulubiony język naukowców i... analityków danych. Nauczysz się płynnego przenoszenia danych z Excela do programu napisanego w Pythonie, a także praktycznych metod ich analizy. Dzięki ćwiczeniom, które znajdziesz w końcowej części każdego rozdziału, utrwalisz i lepiej zrozumiesz prezentowane treści.

W książce:

  • badanie relacji między danymi za pomocą Excela
  • stosowanie Excela w analizach statystycznych i badaniu danych
  • podstawy języka R
  • proces oczyszczania i analizy danych w R
  • przenoszenie danych z Excela do kodu Pythona
  • pełna analiza danych w Pythonie

Eksploracyjna analiza danych? I w Excelu, i w Pythonie!

Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu dostępu, który można odebrać w bibliotece.
Pozycja została dodana do koszyka. Jeśli nie wiesz, do czego służy koszyk, kliknij tutaj, aby poznać szczegóły.
Nie pokazuj tego więcej