Sortowanie
Źródło opisu
ebookpoint BIBLIO
(40)
IBUK Libra
(16)
Książki
(9)
Forma i typ
E-booki
(56)
Książki
(9)
Publikacje naukowe
(5)
Publikacje fachowe
(1)
Publikacje popularnonaukowe
(1)
Dostępność
dostępne
(6)
tylko na miejscu
(4)
Placówka
Wypożyczalnia
(6)
Czytelnia
(4)
Autor
Niedbalski Jakub
(7)
Mizerska Anna
(5)
Walczak Tomasz
(5)
Sawka Krzysztof
(4)
Górczyński Robert
(3)
Jajuga Krzysztof
(3)
Kaczmarczyk Stanisław (1945- )
(3)
Walesiak Marek
(3)
Watrak Andrzej
(3)
Alexander Michael
(2)
Deckler Greg
(2)
Goldwasser Matt
(2)
Johnston Benjamin
(2)
Kamiński Filip
(2)
Knight Devin
(2)
Kowalczyk Grzegorz
(2)
Kusleika Dick
(2)
Malik Upom
(2)
Meryk Radosław
(2)
Ostrowsky Erin
(2)
Pearson Mitchell
(2)
Sagalara Leszek
(2)
Schacht Bradley
(2)
Ślęzak Izabela
(2)
Bakhshi Soheil
(1)
Barth Antje
(1)
Bombik Wojciech
(1)
Bruce Andrew
(1)
Bruce Peter
(1)
Bąk Janina
(1)
Bąk Sebastian
(1)
Cieślak Piotr
(1)
Dacko Przemysław
(1)
Damji Jules S
(1)
Danch-Wierzchowska Marta
(1)
Das Tathagata
(1)
Dehghani Zhamak
(1)
Densmore James
(1)
Dorda Artur
(1)
Eremenko Kirill
(1)
Fandango Armando
(1)
Fregly Chris
(1)
Gedeck Peter
(1)
Grippa Vinicius M
(1)
Grus Joel
(1)
Hilpisch Yves
(1)
Housley Matt
(1)
Idris Ivan
(1)
Jemielniak Dariusz (1975- )
(1)
Johnson-Murray Rachael
(1)
Kuzmichev Sergey
(1)
Lachowski Lech
(1)
Laserson Uri
(1)
Lazzeri Francesca
(1)
Lee Denny
(1)
Long JD
(1)
Maison Dominika
(1)
Matuk Konrad
(1)
McFarlane Lindsay
(1)
McKinney Wes
(1)
Mount George
(1)
Mount John
(1)
Nabywaniec Dariusz
(1)
Navlani Avinash
(1)
Niemiro Wojciech
(1)
Ostasiewicz Walenty (1942- )
(1)
Owen Sean
(1)
Paluszkiewicz Marcin
(1)
Powell Brett
(1)
Praca zbiorowa
(1)
Płodzień Jacek
(1)
Raviv Gil
(1)
Reis Joe
(1)
Rozema Michiel
(1)
Ryza Sandy
(1)
Shan Jun
(1)
Smugaj Beata
(1)
Stemposz Ewa
(1)
Streets Valerie N
(1)
Tandon Akash
(1)
Tanimura Cathy
(1)
Teetor Paul
(1)
Tyszka Henryk
(1)
Vlootman Henk
(1)
Wade Christian
(1)
Walker Michael
(1)
Waters Shonna D
(1)
Waśko Zbigniew
(1)
Wenig Brooke
(1)
Wilke Claus O
(1)
Wills Josh
(1)
Zalewska Marta Joanna
(1)
Zastrożna Martyna
(1)
Zavarella Luca
(1)
Zhao Alice
(1)
Zumel Nina
(1)
Rok wydania
2020 - 2024
(43)
2010 - 2019
(18)
2000 - 2009
(2)
1990 - 1999
(2)
Okres powstania dzieła
2001-
(3)
Kraj wydania
Polska
(64)
Stany Zjednoczone
(1)
Język
polski
(64)
angielski
(1)
Temat
Analiza danych
(7)
Badania marketingowe
(3)
Analiza danych jakościowych
(1)
Analiza dyskursu
(1)
Analiza funkcjonalna
(1)
Analiza obiektowa (informat.)
(1)
Badania jakościowe
(1)
Badania naukowe
(1)
Baza danych obiektowa
(1)
Case study (studium przypadku)
(1)
Języki programowania
(1)
Języki zapytań
(1)
Kapitał ludzki
(1)
Kompetencje informacyjne
(1)
Metody badawcze
(1)
Metody statystyczne
(1)
Nauki społeczne
(1)
Netnografia
(1)
Obserwacja nieuczestnicząca
(1)
Obserwacja uczestnicząca
(1)
Organizacja
(1)
Projektowanie obiektowe
(1)
SQL (język zapytań)
(1)
Shadowing (metoda nauczania)
(1)
Statystyka matematyczna
(1)
Systemy informatyczne
(1)
UML
(1)
Wywiad socjologiczny
(1)
Zarządzanie zasobami ludzkimi (HRM)
(1)
Zogniskowany wywiad grupowy
(1)
Gatunek
Podręcznik
(7)
Praca zbiorowa
(5)
Opracowanie
(1)
Dziedzina i ujęcie
Zarządzanie i marketing
(4)
Nauka i badania
(2)
Informatyka i technologie informacyjne
(1)
Matematyka
(1)
Socjologia i społeczeństwo
(1)
65 wyników Filtruj
E-book
W koszyku
Forma i typ
Gatunek
W dniach 23-25 października 2017 roku na Uniwersytecie Ekonomicznym w Krakowie odbyła się XXVI Konferencja Naukowa Sekcji Klasyfikacji i Analizy Danych PTS (XXXI Konferencja Taksonomiczna) nt. „Klasyfikacja i analiza danych – teoria i zastosowania”, zorganizowana przez Sekcję Klasyfikacji i Analizy Danych Polskiego Towarzystwa Statystycznego oraz Katedrę Statystyki Wydziału Zarządzania Uniwersytetu Ekonomicznego w Krakowie. W trakcie dwóch sesji plenarnych oraz dziesięciu sesji równoległych wygłoszono 43 referaty poświęcone aspektom teoretycznym i aplikacyjnym zagadnienia klasyfikacji i analizy danych. Odbyła się również sesja plakatowa, na której zaprezentowano 18 plakatów. Teksty 23 recenzowanych artykułów naukowych stanowią zawartość publikacji z serii Taksonomia nr 31. Teksty 24 recenzowanych artykułów naukowych znajdują się w Taksonomii nr 30.
Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu PIN. Po odbiór kodu PIN zapraszamy do biblioteki.
E-book
W koszyku
Forma i typ
Gatunek
Niniejszy tom „Przeglądu Socjologicznego” prezentuje rozważania i wyniki analiz dotyczące zastosowań różnych, zarówno ilościowych jak i jakościowych technik w badaniach społecznych. Przedstawiamy teksty zgrupowane w trzech modułach tematycznych. Pierwszy omawia zagadnienia statusu metodologicznego różnego rodzaju technik badawczych, poczynając od propozycji klasyfikacji sondażowych technik otrzymywania materiałów, poprzez refleksje nad badaniami na małych próbach celowych, do analiz dotyczących badań ewaluacyjnych, panelu badawczego, sondażu perswazyjnego, wywiadów eksperckich i delfickich oraz wywiadu grupowego. W drugiej części przedstawiono teksty omawiające metodologiczne aspekty badania zjawisk społecznych na przykładzie postaw wobec bezrobocia oraz środowiska osób świadczących usługi seksualne. Trzeci moduł prezentuje artykuły poświęcone nowym technologiom w badaniach społecznych – głównie programom komputerowym do analizy danych jakościowych i badaniom internetowym.
Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu PIN. Po odbiór kodu PIN zapraszamy do biblioteki.
E-book
W koszyku

Analiza danych sprawia, że dzięki ich dużym i mniejszym kolekcjom uzyskujemy wartościową wiedzę, która pozwala na podejmowanie najlepszych decyzji. Dzieje się to poprzez odkrywanie wzorców lub trendów. Obecnie Python udostępnia przeznaczone specjalnie do tego celu narzędzia i biblioteki. Możemy więc łatwo korzystać z wyrafinowanych technik wydobywania wiedzy z danych. Aby jednak osiągnąć zamierzone efekty, trzeba dobrze poznać zarówno metodologię analizy danych, jak i zasady pracy ze służącymi do tego narzędziami.

Dzięki tej książce zdobędziesz wszystkie potrzebne informacje i umiejętności, aby skutecznie używać Pythona do analizy danych. Omówiono tu niezbędne podstawy statystyki i zasady analizy danych. Wyczerpująco przedstawiono zaawansowane zagadnienia dotyczące przygotowania, przetwarzania i modelowania danych, a także ich wizualizacji. W zrozumiały sposób wyjaśniono takie procesy jak inteligentne przetwarzanie i analizowanie danych za pomocą algorytmów uczenia maszynowego: regresji, klasyfikacji, analizy głównych składowych czy analizy skupień. Nie zabrakło praktycznych przykładów przetwarzania języka naturalnego i analizy obrazów. Ciekawym zagadnieniem jest również wykonywanie obliczeń równoległych za pomocą biblioteki Dask.

W książce między innymi:

  • podstawy analizy danych i korzystanie z bibliotek NumPy i pandas
  • praca z danymi w różnych formatach
  • interaktywna wizualizacja z bibliotekami Matplotlib, seaborn i Bokeh
  • inżynieria cech, analiza szeregów czasowych i przetwarzanie sygnałów
  • zaawansowana analiza danych tekstowych i obrazów

Python: wydobywaj z danych wiedzę o wielkiej wartości!

Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu dostępu, który można odebrać w bibliotece.
E-book
W koszyku

Wprawny analityk danych potrafi z nich uzyskać wiedzę ułatwiającą podejmowanie trafnych decyzji. Od kilku lat można do tego używać nowoczesnych narzędzi Pythona, które zbudowano specjalnie do tego celu. Praca z nimi nie wymaga głębokiej znajomości statystyki czy algebry. Aby cieszyć się uzyskanymi rezultatami, wystarczy się wprawić w stosowaniu kilku pakietów i środowisk Pythona.

Ta książka jest trzecim, starannie zaktualizowanym wydaniem wyczerpującego przewodnika po narzędziach analitycznych Pythona. Uwzględnia Pythona 3.0 i bibliotekę pandas 1.4. Została napisana w przystępny sposób, a poszczególne zagadnienia bogato zilustrowano przykładami, studiami rzeczywistych przypadków i fragmentami kodu. W trakcie lektury nauczysz się korzystać z możliwości oferowanych przez pakiety pandas i NumPy, a także środowiska IPython i Jupyter. Nie zabrakło wskazówek dotyczących używania uniwersalnych narzędzi przeznaczonych do ładowania, czyszczenia, przekształcania i łączenia zbiorów danych. Pozycję docenią analitycy zamierzający zacząć pracę w Pythonie, jak również programiści Pythona, którzy chcą się zająć analizą danych i obliczeniami naukowymi.

Dzięki książce nauczysz się:

  • eksplorować dane za pomocą powłoki IPython i środowiska Jupyter
  • korzystać z funkcji pakietów NumPy i pandas
  • używać pakietu matplotlib do tworzenia czytelnych wizualizacji
  • analizować i przetwarzać dane regularnych i nieregularne szeregi czasowe
  • rozwiązywać rzeczywiste problemy analityczne

Wes McKinney zaktualizował swoją książkę, aby była podstawowym źródłem informacji o wszystkich zagadnieniach związanych z analizą danych przy użyciu języka Python i biblioteki pandas. Gorąco polecam tę pozycję!

Paul Barry, wykładowca i autor książek

Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu dostępu, który można odebrać w bibliotece.
E-book
W koszyku

Dostęp do danych jest warunkiem rozwoju niejednej organizacji. Aby w pełni skorzystać z ich potencjału i uzyskać dzięki nim konkretną wartość, konieczne jest odpowiednie zarządzanie danymi. Obecnie stosowane rozwiązania w tym zakresie nie nadążają już za złożonością dzisiejszych organizacji, rozprzestrzenianiem się źródeł danych i rosnącymi aspiracjami inżynierów, którzy rozwijają techniki sztucznej inteligencji i analizy danych. Odpowiedzią na te potrzeby może być siatka danych (Data Mesh), jednak praktyczna implementacja tej koncepcji wymaga istotnej zmiany myślenia.

Ta książka szczegółowo wyjaśnia paradygmat siatki danych, a przy tym koncentruje się na jego praktycznym zastosowaniu. Zgodnie z tym nowatorskim podejściem dane należy traktować jako produkt, a dziedziny - jako główne zagadnienie. Poza wyjaśnieniem paradygmatu opisano tu zasady projektowania wysokopoziomowej architektury komponentów siatki danych, a także przedstawiono wskazówki i porady dotyczące ewolucyjnej realizacji siatki danych w organizacji. Tematyka ta została potraktowana wszechstronnie: omówiono kwestie technologiczne, organizacyjne, jak również socjologiczne i kulturowe. Dzięki temu jest to cenna lektura zarówno dla architektów i inżynierów, jak i dla badaczy, analityków danych, wreszcie dla liderów i kierowników zespołów.

W książce:

  • wyczerpujące wprowadzenie do paradygmatu siatki danych
  • siatka danych i jej komponenty
  • projektowanie architektury siatki danych
  • opracowywanie i realizacja strategii siatki danych
  • zdecentralizowany model własności danych
  • przejście z hurtowni i jezior danych do rozproszonej siatki danych

Siatka danych: kolejny etap rozwoju technologii big data!

Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu dostępu, który można odebrać w bibliotece.
E-book
W koszyku

Apache Spark jest oprogramowaniem open source, przeznaczonym do klastrowego przetwarzania danych dostarczanych w różnych formatach. Pozwala na uzyskanie niespotykanej wydajności, umożliwia też pracę w trybie wsadowym i strumieniowym. Framework ten jest również świetnie przygotowany do uruchamiania złożonych aplikacji, włączając w to algorytmy uczenia maszynowego czy analizy predykcyjnej. To wszystko sprawia, że Apache Spark stanowi znakomity wybór dla programistów zajmujących się big data, a także eksploracją i analizą danych.

To książka przeznaczona dla inżynierów danych i programistów, którzy chcą za pomocą Sparka przeprowadzać skomplikowane analizy danych i korzystać z algorytmów uczenia maszynowego, nawet jeśli te dane pochodzą z różnych źródeł. Wyjaśniono tu, jak dzięki Apache Spark można odczytywać i ujednolicać duże zbiory informacji, aby powstawały niezawodne jeziora danych, w jaki sposób wykonuje się interaktywne zapytania SQL, a także jak tworzy się potoki przy użyciu MLlib i wdraża modele za pomocą biblioteki MLflow. Omówiono również współdziałanie aplikacji Sparka z jego rozproszonymi komponentami i tryby jej wdrażania w poszczególnych środowiskach.

W książce:

  • API strukturalne dla Pythona, SQL, Scali i Javy
  • operacje Sparka i silnika SQL
  • konfiguracje Sparka i interfejs Spark UI
  • nawiązywanie połączeń ze źródłami danych: JSON, Parquet, CSV, Avro, ORC, Hive, S3 i Kafka
  • operacje analityczne na danych wsadowych i strumieniowanych
  • niezawodne potoki danych i potoki uczenia maszynowego

Spark: twórz skalowalne i niezawodne aplikacje big data!

Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu dostępu, który można odebrać w bibliotece.
Brak okładki
Książka
W koszyku
(Nauka o Danych i Sztuczna Inteligencja)
Zawiera: Wprowadzenie; O książce; 1. Wprowadzenie do SQL-a dla analityków: Wprowadzenie; Świat danych; Metody z obszaru statystyki opisowej; Testy istotności statystycznej; Relacyjne bazy danych i SQL; Podstawowe typy danych w SQL-u; Wczytywanie tabel kwerenda SELECT; Aktualizowanie tabel; Usuwanie danych i tabel; SQL i analityka; Podsumowanie; 2. Przygotowywanie danych za pomocą SQL-a: Wprowadzenie; Łączenie danych; Podsumowanie; 3. Agregacja i funkcje okna: Wprowadzenie; Funkcje agregujące; Funkcje agregujące z klauzulą GROUP BY; Klauzula HAVING; Stosowanie funkcji agregujących do oczyszczania danych i sprawdzania ich jakości; Funkcje okna; Obliczanie statystyk z użyciem funkcji okna; Podsumowanie; 4. Importowanie i eksportowanie danych: Wprowadzenie; Polecenie COPY; Zastosowanie języka R do bazy danych; Zastosowanie języka Python do bazy danych; Najlepsze praktyki z obszaru importowania i eksportowania danych; Podsumowanie; 5. Analityka z wykorzystaniem złożonych typów danych: Wprowadzenie; Wykorzystywanie typów danych z datami i czasem do analiz; Przeprowadzanie analiz geoprzestrzennych w PostgreSQL; Stosowanie tablicowych typów danych w PostgreSQL; Stosowanie formatu JSON w PostgreSQL; Analiza tekstu za pomocą PostgreSQL; Podsumowanie; 6. Wydajny SQL: Wprowadzenie; Metody skanowania baz danych; Wydajne złączenia; Funkcje i wyzwalacze; Podsumowanie; 7. Metoda naukowa i rozwiązywanie problemów w praktyce: Wprowadzenie; Studium przypadku; Podsumowanie; Dodatek: Rozdział 1. Wprowadzenie do SQL-a dla analityków; Rozdział 2. Przygotowywanie danych za pomocą SQL-a; Rozdział 3. Agregacja i funkcje okna; Rozdział 4. Importowanie i eksportowanie danych; Rozdział 5. Analizy z wykorzystaniem złożonych typów danych; Rozdział 6. Wydajny SQL; Rozdział 7. Metoda naukowa i rozwiązywanie problemów w praktyce.
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 004 (2 egz.)
E-book
W koszyku

Język SQL zwykle służy do pracy z bazami danych, jednak można go używać również do wydajnego przetwarzania ich wielkich zbiorów. W tym celu trzeba dobrze poznać to narzędzie. Wysiłek włożony w zrozumienie SQL-a na pewno się opłaci - dzięki analizie danych można wydobywać z nich bezcenną wiedzę, która bezpośrednio przekłada się na zyski firmy.

Ta książka stanowi świetne wprowadzenie do analizy danych. Dzięki niej nauczysz się korzystać z surowych danych, nawet jeśli nie masz odpowiedniego doświadczenia. Zaczniesz od formułowania hipotez i generowania statystyk opisowych, a następnie przystąpisz do pisania zapytań w języku SQL w celu agregowania, przeliczania i łączenia danych z różnych zbiorów. Zapoznasz się też z zaawansowanymi technikami, takimi jak analiza geoprzestrzenna i analiza tekstu. W książce omówiono również profilowanie i automatyzację, które umożliwiają szybsze i wydajniejsze pobieranie informacji. To wszystko pozwoli Ci na skuteczne korzystanie z SQL-a w codziennych scenariuszach biznesowych.

Najciekawsze zagadnienia:

  • gruntowne wprowadzenie do analityki danych
  • przygotowywanie danych do analizy
  • optymalizacja kwerend i złożone typy danych
  • funkcje agregujące, funkcja okna i inne metody analizy danych w SQL
  • jak odkrywać prawdę za pomocą SQL-a

SQL: spójrz na dane okiem wyszkolonego analityka!

Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu dostępu, który można odebrać w bibliotece.
E-book
W koszyku
SQL. Leksykon kieszonkowy / Alice Zhao ; przeł. Artur Dorda. - Wyd. 4 - [miejsce nieznane] : Helion : ebookpoint BIBLIO, 2022. - 280 s. ; 19 cm.
Forma i typ

Język SQL jest istotnym narzędziem nie tylko dla programistów, ale także dla analityków biznesowych i inżynierów danych. Nawet jeśli nieźle znasz składnię SQL, może się zdarzyć, że podczas pracy poczujesz potrzebę odświeżenia wiedzy czy też sprawdzenia jakiegoś szczegółu działania swojego zapytania SQL. W takich wypadkach nie potrzebujesz drobiazgowej specyfikacji technicznej ani opasłego podręcznika: po prostu zależy Ci na szybkim i pewnym odnalezieniu potrzebnej informacji bez przebijania się przez dogłębne wyjaśnienia.

To czwarte, poprawione i zaktualizowane wydanie cenionego leksykonu poświęconego SQL. Przemyślany układ zawartych w nim treści zdecydowanie ułatwia i przyspiesza wynajdywanie informacji ― bez konieczności odrywania się od pracy. Poza zwięzłymi objaśnieniami dotyczącymi składni SQL znajdziesz tu opis kluczowych aspektów języka SQL używanego w Microsoft SQL Server, MySQL, Oracle Database, PostgreSQL i SQLite. Ułatwi Ci to stosowanie tych systemów zarządzania bazami danych. Oprócz tego w książce szybko odszukasz szczegóły dotyczące typów danych i ich konwersji, składni wyrażeń regularnych, funkcji okna, pivotingu i unpivotingu, a także wielu innych zagadnień.

Dzięki książce:

  • szybko sprawdzisz, jak wykonać konkretne zadania za pomocą SQL
  • znajdziesz przydatne przykłady składni
  • sprawisz, aby zapytania SQL działały w różnych systemach zarządzania bazami danych
  • zastosujesz kod Pythona i R do pracy z relacyjną bazą danych
  • znajdziesz odpowiedzi na często zadawane pytania dotyczące SQL

Mijają lata, a w pracy z danymi to SQL wciąż jest najważniejszy!

Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu dostępu, który można odebrać w bibliotece.
Brak okładki
Książka
W koszyku
1. Wiadomości wprowadzające. 2. Opisowa analiza danych. 3. Modele w analizie danych. 4. Eksploracyjna analiza danych. 5. Analiza danych historycznych. 6. Analiza danych jakościowych.
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Czytelnia
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 311 (1 egz.)
Książka
W koszyku
Zawiera: Na początek: czy wiecie, że istnieje matematyczny wzór na dobre piwo? Ilu osób potrzeba, by napisać jedną książkę? Statystyka – królowa nauk czy popychadło medialnego świata? Czy naukowcy są jak żony i nigdy się nie mylą? Dlaczego koń i szop pracz nie dostały doktoratu? Skąd wiemy, że owca rozpoznałaby na ulicy prezydenta? Czy kiedy wychodzimy z psem na spacer, to średnio mamy po trzy nogi? Czy 117% Polaków może się mylić? Czy da się zmierzyć szczęście linijką? Czy po seksie będziemy opanierowani w banknotach niczym krokiet w bułce? Na imieniny lepiej kupić czekoladki czy kokainę? Czy jesteśmy rasistami? Czy jak wsadzimy głowę do lodówki, a nogi do piekarnika, to będzie nam w sam raz? Ile trzeba zjeść czekolady, żeby dostać Nobla? Czy język angielski powoduje zawały serca, a masło przedłuża życie? Czego statystyka nauczyła się od martwego łososia? Dlaczego ufamy szarlatanom? Na koniec: dlaczego wciąż się wzruszam na myśl o bezdomnych lamach?
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 311 (3 egz.)
E-book
W koszyku

Metody statystyczne są kluczowym narzędziem w data science, mimo to niewielu analityków danych zdobyło wykształcenie w ich zakresie. Może im to utrudniać uzyskiwanie dobrych efektów. Zrozumienie praktycznych zasad statystyki okazuje się ważne również dla programistów R i Pythona, którzy tworzą rozwiązania dla data science. Kursy podstaw statystyki rzadko jednak uwzględniają tę perspektywę, a większość podręczników do statystyki w ogóle nie zajmuje się narzędziami wywodzącymi się z informatyki.

To drugie wydanie popularnego podręcznika statystyki przeznaczonego dla analityków danych. Uzupełniono je o obszerne przykłady w Pythonie oraz wyjaśnienie, jak stosować poszczególne metody statystyczne w problemach data science, a także jak ich nie używać. Skoncentrowano się też na tych zagadnieniach statystyki, które odgrywają istotną rolę w data science. Wyjaśniono, które koncepcje są ważne i przydatne z tej perspektywy, a które mniej istotne i dlaczego. Co ważne, poszczególne koncepcje i zagadnienia praktyczne przedstawiono w sposób przyswajalny i zrozumiały również dla osób nienawykłych do posługiwania się statystyką na co dzień.

W książce między innymi:

  • analiza eksploracyjna we wstępnym badaniu danych
  • próby losowe a jakość dużych zbiorów danych
  • podstawy planowania eksperymentów
  • regresja w szacowaniu wyników i wykrywaniu anomalii
  • statystyczne uczenie maszynowe
  • uczenie nienadzorowane a znaczenie danych niesklasyfikowanych

Statystyka: klasyczne narzędzia w najnowszych technologiach!

Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu dostępu, który można odebrać w bibliotece.
E-book
W koszyku
W dniach 15-17 września 2010 roku w Hotelu Filmar w Toruniu odbyła się XIX Konferencja Naukowa Sekcji Klasyfikacji i Analizy Danych PTS (XXIV Konferencja Taksonomiczna) nt. Klasyfikacja i analiza danych – teoria i zastosowania, organizowana przez Sekcję Klasyfikacji i Analizy Danych Polskiego Towarzystwa Statystycznego, Katedrę Ekonometrii i Statystyki Uniwersytetu Mikołaja Kopernika w Toruniu oraz Katedrę Metod Ilościowych Wyższej Szkoły Bankowej w Toruniu. Przewodniczącym Komitetu Organizacyjnego Konferencji był dr hab. Tadeusz Kufel, prof. nadzw. UMK, natomiast sekretarzami dr Marcin Błażejowski i mgr Paweł Kufel. Zakres tematyczny konferencji obejmował zagadnienia: a) teoria (taksonomia, analiza dyskryminacyjna, metody porządkowania liniowego, metody statystycznej analizy wielowymiarowej, metody analizy zmiennych ciągłych, metody analizy zmiennych dyskretnych, metody analizy danych symbolicznych, metody graficzne). b) zastosowania (analiza danych finansowych, analiza danych marketingowych, analiza danych przestrzennych, inne zastosowania analizy danych – medycyna, psychologia, archeologia, itd., aplikacje komputerowe metod statystycznych). Zasadniczym celem konferencji SKAD była prezentacja osiągnięć i wymiana.
Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu PIN. Po odbiór kodu PIN zapraszamy do biblioteki.
E-book
W koszyku
W dniach 8-10 września 2014 roku w Hotelu Aurora w Międzyzdrojach odbyła się XXIII Konferencja Naukowa Sekcji Klasyfikacji i Analizy Danych PTS (XXVIII Konferencja Taksonomiczna) nt. Klasyfikacja i analiza danych – teoria i zastosowania, zorganizowana przez Sekcję Klasyfikacji i Analizy Danych Polskiego Towarzystwa Statystycznego oraz Instytut Ekonometrii i Statystyki i Katedrę Ubezpieczeń i Rynków Kapitałowych Wydziału Nauk Ekonomicznych i Zarządzania Uniwersytetu Szczecińskiego. Przewodniczącymi Komitetu Organizacyjnego konferencji byli prof. dr hab. Waldemar Tarczyński oraz prof. US dr hab. Jacek Batóg, sekretarzem naukowym dr hab. Iwona Markowicz, a sekretarzami organizacyjnymi dr Beata Bieszk-Stolorz, dr Barbara Batóg i dr Monika Rozkrut. Konferencja naukowa została dofinansowana ze środków Narodowego Banku Polskiego. Zakres tematyczny konferencji obejmował zagadnienia, które można podzielić na 2 grupy: a) teoria (taksonomia, analiza dyskryminacyjna, metody porządkowania linio-wego, metody statystycznej analizy wielowymiarowej, metody analizy zmiennych ciągłych, metody analizy zmiennych dyskretnych, metody analizy danych symbo-licznych, metody graficzne), b) zastosowania (analiza danych finansowych, analiza danych marketingowych, analiza danych przestrzennych, inne zastosowania analizy danych – medycyna, psychologia, archeologia itd., aplikacje komputerowe metod statystycznych). Zasadniczym celem konferencji SKAD była prezentacja osiągnięć i wymiana doświadczeń z zakresu teoretycznych i aplikacyjnych zagadnień klasyfikacji i analizy danych. Konferencja stanowi coroczne forum służące podsumowaniu obecne-go stanu wiedzy, przedstawieniu i promocji dokonań nowatorskich oraz wskazaniu kierunków dalszych prac i badań.
Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu PIN. Po odbiór kodu PIN zapraszamy do biblioteki.
Brak okładki
Książka
W koszyku
List of Tables, Figures, and Case Studies; Preface; Acknowledgments; Author Biographies. 1. Define the Business Challange; 2. Understand the Analytics Domain; 3. Estabilish an Effective Team; 4. Form Your Hypothesis; 5. Run Basic Analyses; 6. Explore Complex Analyses; 7. Use Data to Inform Your Decisions; 8. Communicate Your Findings; 9. Evaluate Your Intervention; Appendix A. How Analytics Fit into the SHRM Competency Model; Appendix B. Assess Yourself; Appendix C. Evaluate Your Data; Appendix D. Choose Your HR Metrics; Appendix E. Identify Your Stakeholders; Appendix F. Develop Your Hypotheses; Appendix G. Choose Your Statistical Test; Appendix H. Write Your Analysis Plan; Appendix I. Summarize Your Findings; Appendix J. Tell Your Story; Appendix K. Plan Your Evaluation; Appendix L. Communicate Your Plan; Appendix M. Set U pan Analytics Function. Bibliography; Additional References Materials; Index.
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 658.3 (2 egz.)
E-book
W koszyku

Dziś nawet małe firmy mają niespotykany wcześniej dostęp do dużych ilości danych. Osoby zarządzające przedsiębiorstwem mogą z nich korzystać przy podejmowaniu decyzji biznesowych, w tym celu jednak konieczne jest przetworzenie surowych danych. Tym właśnie zajmuje się analityka biznesowa, a jednym z najpopularniejszych programów stosowanych w tej dziedzinie jest MS Excel. Od jakiegoś czasu oprogramowanie to zawiera wyspecjalizowane funkcje i narzędzia, dzięki którym analizę i wizualizację danych można wykonać bez potrzeby sięgania po inne aplikacje.

Lektura tej książki nauczy Cię myśleć o danych inaczej niż dotychczas. Przekonasz się, że to nie tylko wypełnione kolumny i wiersze. Nie poprzestaniesz na prostej pracy z danymi, a nauczysz się je układać w historie obfitujące w cenne wnioski. Dowiesz się, jak sobie radzić z wartościami, które wyraźnie odstają od innych, i nauczysz się odpowiedniego grupowania danych. Zobaczysz, że można je pokazywać ― nawet jeśli są to ogromne ilości ― bez zasypywania i dezorientowania odbiorców. W końcu odkryjesz, jak przejść od arkusza z nieprzetworzonymi danymi i wykresami do pełnych wartościowych informacji raportów i paneli nawigacyjnych. W ten sposób, dzięki wizualizacji danych biznesowych, łatwiej Ci będzie przekonać swoich partnerów do własnych pomysłów.

Dzięki książce poznasz sposoby:

  • analizowania bardzo dużych ilości danych
  • prezentowania danych z kilku perspektyw
  • efektywnego rozdzielania danych na różne widoki
  • automatyzowania procesów przygotowywania raportów i przeprowadzania analiz
  • tworzenia atrakcyjnych paneli nawigacyjnych
  • przygotowania analiz typu „co, jeśli”

MS Excel: najbardziej przydatne wnioski wyciągniesz ze swoich danych!

Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu dostępu, który można odebrać w bibliotece.
E-book
W koszyku

Potrzeby w zakresie analizy dużych zbiorów danych i wyciągania z nich użytecznych informacji stale rosną. Spośród dostępnych narzędzi przeznaczonych do tych zastosowań szczególnie przydatny jest PySpark - interfejs API systemu Spark dla języka Python. Apache Spark świetnie się nadaje do analizy dużych zbiorów danych, a PySpark skutecznie ułatwia integrację Sparka ze specjalistycznymi narzędziami PyData. By jednak można było w pełni skorzystać z tych możliwości, konieczne jest zrozumienie interakcji między algorytmami, zbiorami danych i wzorcami używanymi w analizie danych.

Oto praktyczny przewodnik po wersji 3.0 systemu Spark, metodach statystycznych i rzeczywistych zbiorach danych. Omówiono w nim zasady rozwiązywania problemów analitycznych za pomocą interfejsu PySpark, z wykorzystaniem dobrych praktyk programowania w systemie Spark. Po lekturze można bezproblemowo zagłębić się we wzorce analityczne oparte na popularnych technikach przetwarzania danych, takich jak klasyfikacja, grupowanie, filtrowanie i wykrywanie anomalii, stosowane w genomice, bezpieczeństwie systemów IT i finansach. Dodatkowym plusem są opisy wykorzystania przetwarzania obrazów i języka naturalnego. Zaletą jest też szereg rzeczywistych przykładów dużych zbiorów danych i ich zaawansowanej analizy.

Dzięki książce poznasz:

  • model programowania w ekosystemie Spark
  • podstawowe metody stosowane w nauce o danych
  • pełne implementacje analiz dużych publicznych zbiorów danych
  • konkretne przypadki użycia narzędzi uczenia maszynowego
  • kod, który łatwo dostosujesz do swoich potrzeb

PySpark: systemowa odpowiedź na problemy inżyniera danych!

Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu dostępu, który można odebrać w bibliotece.
E-book
W koszyku

Sukces przedsiębiorstwa zależy od jakości podejmowanych decyzji. Spośród strategii, które wspierają ten proces, na szczególną uwagę zasługuje zastosowanie analizy danych. Jest to jednak dość złożona dziedzina. Podstawowym narzędziem wielu analityków danych jest arkusz kalkulacyjny. Ma on tę zaletę, że ułatwia solidne zrozumienie prawideł statystyki i analizy danych. Po zdobyciu takich podstaw warto jednak pójść dalej i nauczyć się eksploracyjnej analizy danych za pomocą języków programowania.

Dzięki tej książce przejście od pracy z arkuszami Excela do samodzielnego tworzenia kodu w Pythonie i R będzie płynne i bezproblemowe. Rozpoczniesz od ugruntowania swoich umiejętności w Excelu i dogłębnego zrozumienia podstaw statystyki i analizy danych. Ułatwi Ci to rozpoczęcie pisania kodu w języku R i w Pythonie. Dowiesz się, jak dokładnie przebiega proces oczyszczania danych i ich analizy w kodzie napisanym w języku R. Następnie zajmiesz się poznawaniem Pythona. Jest to wszechstronny, łatwy w nauce i potężny język programowania, ulubiony język naukowców i... analityków danych. Nauczysz się płynnego przenoszenia danych z Excela do programu napisanego w Pythonie, a także praktycznych metod ich analizy. Dzięki ćwiczeniom, które znajdziesz w końcowej części każdego rozdziału, utrwalisz i lepiej zrozumiesz prezentowane treści.

W książce:

  • badanie relacji między danymi za pomocą Excela
  • stosowanie Excela w analizach statystycznych i badaniu danych
  • podstawy języka R
  • proces oczyszczania i analizy danych w R
  • przenoszenie danych z Excela do kodu Pythona
  • pełna analiza danych w Pythonie

Eksploracyjna analiza danych? I w Excelu, i w Pythonie!

Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu dostępu, który można odebrać w bibliotece.
E-book
W koszyku
W książce przedstawiono sześć niezwykle przydatnych funkcji NVivo, które stanowią przykład rozwoju i ewaluowania oprogramowania. Przy wyborze kierowano się walorami użytkowymi, związanymi m.in. ze specyfiką pracy badaczy jakościowych oraz kierunkami rozwoju współcześnie realizowanych studiów. Wszystkie opisane w publikacji narzędzia cechuje nie tylko szerokie spektrum zastosowań, ale także wysoce uniwersalny charakter. Z tego względu możliwości NVivo powinni docenić zarówno przedstawiciele różnych środowisk naukowych, jak i praktycy, którzy poszukują wyspecjalizowanego narzędzia wspomagającego proces analizy danych jakościowych.
Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu PIN. Po odbiór kodu PIN zapraszamy do biblioteki.
E-book
W koszyku

W książce przedstawiono sześć niezwykle przydatnych funkcji NVivo, które stanowią przykład rozwoju i ewaluowania oprogramowania. Przy wyborze kierowano się walorami użytkowymi, związanymi m.in. ze specyfiką pracy badaczy jakościowych oraz kierunkami rozwoju współcześnie realizowanych studiów. Wszystkie opisane w publikacji narzędzia cechuje nie tylko szerokie spektrum zastosowań, ale także wysoce uniwersalny charakter. Z tego względu możliwości NVivo powinni docenić zarówno przedstawiciele różnych środowisk naukowych, jak i praktycy, którzy poszukują wyspecjalizowanego narzędzia wspomagającego proces analizy danych jakościowych.

Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu dostępu, który można odebrać w bibliotece.
Pozycja została dodana do koszyka. Jeśli nie wiesz, do czego służy koszyk, kliknij tutaj, aby poznać szczegóły.
Nie pokazuj tego więcej