Sortowanie
Źródło opisu
ebookpoint BIBLIO
(40)
IBUK Libra
(16)
Książki
(9)
Forma i typ
E-booki
(56)
Książki
(9)
Publikacje naukowe
(5)
Publikacje fachowe
(1)
Publikacje popularnonaukowe
(1)
Dostępność
dostępne
(6)
tylko na miejscu
(4)
Placówka
Wypożyczalnia
(6)
Czytelnia
(4)
Autor
Niedbalski Jakub
(7)
Mizerska Anna
(5)
Walczak Tomasz
(5)
Sawka Krzysztof
(4)
Górczyński Robert
(3)
Jajuga Krzysztof
(3)
Kaczmarczyk Stanisław (1945- )
(3)
Walesiak Marek
(3)
Watrak Andrzej
(3)
Alexander Michael
(2)
Deckler Greg
(2)
Goldwasser Matt
(2)
Johnston Benjamin
(2)
Kamiński Filip
(2)
Knight Devin
(2)
Kowalczyk Grzegorz
(2)
Kusleika Dick
(2)
Malik Upom
(2)
Meryk Radosław
(2)
Ostrowsky Erin
(2)
Pearson Mitchell
(2)
Sagalara Leszek
(2)
Schacht Bradley
(2)
Ślęzak Izabela
(2)
Bakhshi Soheil
(1)
Barth Antje
(1)
Bombik Wojciech
(1)
Bruce Andrew
(1)
Bruce Peter
(1)
Bąk Janina
(1)
Bąk Sebastian
(1)
Cieślak Piotr
(1)
Dacko Przemysław
(1)
Damji Jules S
(1)
Danch-Wierzchowska Marta
(1)
Das Tathagata
(1)
Dehghani Zhamak
(1)
Densmore James
(1)
Dorda Artur
(1)
Eremenko Kirill
(1)
Fandango Armando
(1)
Fregly Chris
(1)
Gedeck Peter
(1)
Grippa Vinicius M
(1)
Grus Joel
(1)
Hilpisch Yves
(1)
Housley Matt
(1)
Idris Ivan
(1)
Jemielniak Dariusz (1975- )
(1)
Johnson-Murray Rachael
(1)
Kuzmichev Sergey
(1)
Lachowski Lech
(1)
Laserson Uri
(1)
Lazzeri Francesca
(1)
Lee Denny
(1)
Long JD
(1)
Maison Dominika
(1)
Matuk Konrad
(1)
McFarlane Lindsay
(1)
McKinney Wes
(1)
Mount George
(1)
Mount John
(1)
Nabywaniec Dariusz
(1)
Navlani Avinash
(1)
Niemiro Wojciech
(1)
Ostasiewicz Walenty (1942- )
(1)
Owen Sean
(1)
Paluszkiewicz Marcin
(1)
Powell Brett
(1)
Praca zbiorowa
(1)
Płodzień Jacek
(1)
Raviv Gil
(1)
Reis Joe
(1)
Rozema Michiel
(1)
Ryza Sandy
(1)
Shan Jun
(1)
Smugaj Beata
(1)
Stemposz Ewa
(1)
Streets Valerie N
(1)
Tandon Akash
(1)
Tanimura Cathy
(1)
Teetor Paul
(1)
Tyszka Henryk
(1)
Vlootman Henk
(1)
Wade Christian
(1)
Walker Michael
(1)
Waters Shonna D
(1)
Waśko Zbigniew
(1)
Wenig Brooke
(1)
Wilke Claus O
(1)
Wills Josh
(1)
Zalewska Marta Joanna
(1)
Zastrożna Martyna
(1)
Zavarella Luca
(1)
Zhao Alice
(1)
Zumel Nina
(1)
Rok wydania
2020 - 2024
(43)
2010 - 2019
(18)
2000 - 2009
(2)
1990 - 1999
(2)
Okres powstania dzieła
2001-
(3)
Kraj wydania
Polska
(64)
Stany Zjednoczone
(1)
Język
polski
(64)
angielski
(1)
Temat
Analiza danych
(7)
Badania marketingowe
(3)
Analiza danych jakościowych
(1)
Analiza dyskursu
(1)
Analiza funkcjonalna
(1)
Analiza obiektowa (informat.)
(1)
Badania jakościowe
(1)
Badania naukowe
(1)
Baza danych obiektowa
(1)
Case study (studium przypadku)
(1)
Języki programowania
(1)
Języki zapytań
(1)
Kapitał ludzki
(1)
Kompetencje informacyjne
(1)
Metody badawcze
(1)
Metody statystyczne
(1)
Nauki społeczne
(1)
Netnografia
(1)
Obserwacja nieuczestnicząca
(1)
Obserwacja uczestnicząca
(1)
Organizacja
(1)
Projektowanie obiektowe
(1)
SQL (język zapytań)
(1)
Shadowing (metoda nauczania)
(1)
Statystyka matematyczna
(1)
Systemy informatyczne
(1)
UML
(1)
Wywiad socjologiczny
(1)
Zarządzanie zasobami ludzkimi (HRM)
(1)
Zogniskowany wywiad grupowy
(1)
Gatunek
Podręcznik
(7)
Praca zbiorowa
(5)
Opracowanie
(1)
Dziedzina i ujęcie
Zarządzanie i marketing
(4)
Nauka i badania
(2)
Informatyka i technologie informacyjne
(1)
Matematyka
(1)
Socjologia i społeczeństwo
(1)
65 wyników Filtruj
E-book
W koszyku
Forma i typ

Obierz kurs na... szybszą i efektywniejszą pracę z danymi

Współczesny świat wydaje się idealny dla biznesu. Dzięki internetowi bowiem mamy dostęp do niemal nieograniczonych zasobów danych. Zdolność do ich sprawnego analizowania i wyciągania z nich wniosków daje ogromną przewagę konkurencyjną – dane stały się więc świętym Graalem XXI wieku. Nic dziwnego, że pracujący z nimi specjaliści są poszukiwani i dobrze opłacani. Ekspertom w dziedzinie analityki nie wystarcza sam arkusz kalkulacyjny – chętnie sięgają po dodatek Power Pivot. Jest to narzędzie, które pozwala na wygodne i efektywne analizowanie dużych ilości danych w Excelu, modelowanie ich, tworzenie z nich relacji i modeli, a także wykonywanie obliczeń.

Power Pivot jest szczególnie popularny i powszechnie używany w branżach wymagających pracy z wieloma tabelami, które powinny być powiązane ze sobą, lub z tabelami zawierającymi duże ilości danych. Jeśli należysz do osób, które pracują w ten sposób, nasz kurs sprawi, że przeniesiesz umiejętności zawodowe na wyższy poziom. To szkolenie pomoże Ci poznać najważniejsze funkcje języka DAX i narzędzia Power Pivot. Zapewni Ci przygotowanie do samodzielnego tworzenia skomplikowanych modeli danych i wizualizacji.

Uwaga! Power Pivot pozwoli Ci efektywnie pracować nie tylko w Excelu, ale również z innymi źródłami danych, takimi jak pliki .csv, .txt, bazy danych, internetu – a to jedynie kilka wybranych przykładów.

Co Cię czeka podczas naszego profesjonalnego szkolenia

W ramach kursu nauczysz się:

  • Importować dane z różnych źródeł i łączyć je w jeden model
  • Tworzyć i wykorzystywać kolumny obliczeniowe
  • Zmieniać i ujednolicać typy danych w kolumnach
  • Pisać formuły wykorzystujące kolumny obliczeniowe i działać na całych kolumnach
  • Korzystać z wielu funkcji języka DAX
  • Stosować miary obliczeniowe
  • Analizować dane przy użyciu funkcji DAX i miar obliczeniowych
  • Używać narzędzi Power Pivot, takich jak relacje, hierarchie i miary, aby uzyskać bardziej zaawansowane wyniki
  • Tworzyć wizualizacje danych z użyciem tabel i wykresów przestawnych

Co więcej...

  • Nabierzesz wprawy w pracy z dużymi zestawami danych, takimi jak miliony wierszy, co zapewni Ci wydajność i szybkość działania

Power Pivot i język DAX. Kurs video. Analiza i wizualizacja danych w praktyce zakończysz na poziomie nieco powyżej średnio zaawansowanego. Uzyskasz wiedzę między innymi o najważniejszych funkcjach DAX, używaniu miar obliczeniowych, a także o tym, których funkcji należy używać w kolumnach obliczeniowych, a których właśnie w miarach.

Po raz pierwszy ujrzał światło dzienne w 2010 roku

Jako dodatek do Excela Power Pivot zadebiutował wraz z wersją 2010. Do dziś jest najlepszym przyjacielem analityków – potrafi przetwarzać i odczytywać setki milionów wierszy danych, co czyni z niego idealne narzędzie do zastosowania w dużych projektach biznesowych. Jego elastyczność pozwala zaprząc go do pracy w wielu różnych dziedzinach, takich jak finanse, marketing, sprzedaż, logistyka itd. Szczęśliwie dla początkujących specjalistów do spraw analizy danych nauka obsługi Power Pivota nie nastręcza wielkich problemów – z tym kursem z pewnością szybko opanujesz zasady tworzenia skomplikowanych raportów i analiz. Warto to narzędzie poznać, tym bardziej że oferuje wiele gotowych funkcji i miar obliczeniowych, które umożliwiają szybką i łatwą analizę danych, co jest szczególnie przydatne dla osób niezaznajomionych z językami programowania.

Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu dostępu, który można odebrać w bibliotece.
E-book
W koszyku
Forma i typ

Obierz kurs na... nowoczesne narzędzia analityczne w biznesie

Nim zaczniesz się zastanawiać, czy ten kurs video jest dla Ciebie, odpowiedz sobie na jedno pytanie: jak ważny dla mojej pracy jest arkusz Excel? Jeśli odpowiedź brzmi: ważny/bardzo ważny/coraz ważniejszy - to tak, nasz kurs video jest właśnie dla Ciebie. Nauczy Cię bowiem korzystania z narzędzi będących swojego rodzaju Excelem z plusem. Pierwszym z nich jest Power Query, czyli technologia pozwalająca odnajdywać, łączyć i uściślać źródła danych po to, by następnie poddać je dogłębnej analizie. Drugie to Power Pivot, dzięki któremu owe dane można modelować, tworzyć między nimi relacje i wykonywać na nich zaawansowane obliczenia. Gdy opanujesz te dwa potężne narzędzia obliczeniowe, przeniesie Cię to na wyższy poziom pracy z danymi.

Power Query i Power Pivot są oczywiście oparte na najpopularniejszym arkuszu kalkulacyjnym na świecie, czyli - a jakże - Excelu. Gdy się z nimi zapoznasz, przekonasz się, że Power Query jest dość prosty w obsłudze, z kolei Power Pivot - o wiele bardziej wydajny niż „nieuzbrojony” Excel. Razem te nowoczesne narzędzia business intelligence stają się powoli obowiązkowe w większości działów controllingu i analiz, korzystają z nich także chętnie działy księgowe, logistyczne oraz human resources. Kto poszukuje nowej pracy, szczególnie w dużej firmie, dobrze, by opanował zawczasu Power Query i Power Pivot, aby móc się nimi pochwalić w trakcie rozmowy kwalifikacyjnej. A kto już działa zawodowo i pracuje z danymi, dobrze, by znał oba narzędzia, aby realizować swoje zadania szybciej i wydajniej.

Co Cię czeka podczas naszego profesjonalnego szkolenia?

W trakcie kursu nauczysz się:

  • Pobierać dane z plików excelowych, tekstowych oraz z całych folderów.
  • Przekształcać dane za pomocą kolumn przestawnych, anulować przestawienie kolumn, dzielić tekst na wiersze.
  • Dodawać kolumny warunkowe.
  • Scalać zapytania.
  • Budować relacyjny model danych.
  • Tworzyć kolumny obliczeniowe i miary przy wykorzystaniu DAX (data analysis expressions)
  • Rozumieć kontekst filtra i wiersza w obliczeniach opartych na DAX.

Co więcej...

  • Opanujesz analizę danych z wykorzystaniem funkcji time intelligence.

Power Query i Power Pivot. Kurs video. Poznaj narzędzia Excel BI zakończysz na poziomie średnio zaawansowanym - będziesz umiał pobierać dane z wielu źródeł i przekształcać te, które nie nadadzą się od razu do analizy. Dowiesz się, jak zbudować relacyjny model danych oraz zanalizować dane za pomocą miar i kolumn obliczeniowych stworzonych w DAX.

Nieco więcej danych o programach do opracowywania danych

Zarówno Power Pivot, jak i Power Query są darmowymi dodatkami do Excela, udostępnianymi przez Microsoft. Są więc certyfikowane, a korzystanie z nich jest absolutnie bezpieczne. Dział IT w firmie na pewno nie będzie miał nic przeciwko ich używaniu. Za to szef może być bardzo zadowolony - praca z Power Pivotem i Power Query oszczędzi Ci mnóstwo czasu, dotąd zużywanego na to, by mozolnie łączyć ze sobą dane z różnych, często niespójnych źródeł, zestawiać je, modelować i analizować. Dzięki Power Query scalanie danych przyspieszy, dzięki Power Pivot praca na nich się usprawni. Czego chcieć więcej? Może tylko przewodnika, który wprowadzi Cię w świat obu tych genialnych technologii. Na szczęście go masz - w osobie prowadzącego nasz kurs video.

Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu dostępu, który można odebrać w bibliotece.
E-book
W koszyku
Forma i typ

Czy praca na danych kojarzy Ci się z frustrującym ręcznym wklejaniem i oczyszczaniem danych w Excelu? A może tracisz mnóstwo energii na importowanie nieuporządkowanych danych pochodzących z różnych źródeł? Być może podejrzewasz, że Twoje arkusze kryją mnóstwo wartościowych informacji, ale nie wiesz, w jaki sposób je wydobyć i ile godzin musisz na to poświęcić? A może spędzasz sporo czasu na tworzeniu skomplikowanych raportów w Power BI lub programowaniu baz danych SQL Server? Dzięki wiedzy zawartej w tej książce wykonasz te zadania prościej i szybciej, a efekty będą o wiele bardziej niezawodne!

Ten praktyczny przewodnik po narzędziu Power Query nauczy Cię efektywnie przetwarzać dane w Excelu: importować, oczyszczać, przekształcać i wydobywać potrzebne informacje. Dowiesz się, jak sprawnie wykonywać typowe zadania i prace analityczne, jak zwiększyć swoją skuteczność dzięki opanowaniu podstaw języka M oraz jak zautomatyzować proces przygotowywania danych do przetwarzania. Zapoznasz się z możliwościami Microsoft Cognitive Services oraz konektora Power Query Web, a także z wykorzystaniem sztucznej inteligencji do rozpoznawania treści tekstu. Nabyte umiejętności będziesz mógł przetestować w realistycznym projekcie, któremu poświęcono ostatni rozdział!

W książce między innymi:

  • solidne podstawy pracy z narzędziem Power Query
  • automatyzacja operacji na danych
  • proste i zaawansowane techniki dekompozycji tabel
  • tworzenie procedur w języku M
  • pozyskiwanie informacji z danych tekstowych i sieci społecznościowych

Power Query i Power BI: sprostasz wyzwaniu przetwarzania danych!

Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu dostępu, który można odebrać w bibliotece.
E-book
W koszyku
W dniach 19-21 września 2016 roku w miejscowości Słok k. Bełchatowa odbyła się XXV Jubileuszowa Konferencja Naukowa Sekcji Klasyfikacji i Analizy Danych PTS (XXX Konferencja Taksonomiczna) nt. „Klasyfikacja i analiza danych – teoria i zastosowania”, zorganizowana przez Sekcję Klasyfikacji i Analizy Danych Polskiego Towarzystwa Statystycznego oraz Katedrę Metod Statystycznych Wydziału Ekonomiczno-Socjologicznego Uniwersytetu Łódzkiego. Funkcję przewodniczącego Komitetu Organizacyjnego Konferencji pełnił prof. dr hab. Czesław Domański, zastępcami przewodniczącego byli dr hab. Alina Jędrzejczak, prof. UŁ, oraz dr hab. Jerzy Korzeniewski, prof. UŁ, sekretarzami naukowymi – dr hab. Jacek Białek i dr hab. Dorota Pekasiewicz, a sekretarzami organizacyjnymi – dr Artur Mikulec i dr Małgorzata Misztal. Zakres tematyczny konferencji obejmował zagadnienia: a) teoria (taksonomia, analiza dyskryminacyjna, metody porządkowania liniowego, metody statystycznej analizy wielowymiarowej, metody analizy zmiennych ciągłych, metody analizy zmiennych dyskretnych, metody analizy danych symbolicznych, metody graficzne), b) zastosowania (analiza danych finansowych, analiza danych marketingowych, analiza danych przestrzennych, inne zastosowania analizy danych – medycyna, psychologia, archeologia itd., aplikacje komputerowe metod statystycznych).
Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu PIN. Po odbiór kodu PIN zapraszamy do biblioteki.
E-book
W koszyku
Forma i typ
Gatunek
W dniach 23–25 października 2017 roku na Uniwersytecie Ekonomicznym w Krakowie odbyła się XXVI Konferencja Naukowa Sekcji Klasyfikacji i Analizy Danych PTS (XXXI Konferencja Taksonomiczna) nt. „Klasyfikacja i analiza danych – teoria i zastosowania”, zorganizowana przez Sekcję Klasyfikacji i Analizy Danych Polskiego Towarzystwa Statystycznego oraz Katedrę Statystyki Wydziału Zarządzania Uniwersytetu Ekonomicznego w Krakowie.
Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu PIN. Po odbiór kodu PIN zapraszamy do biblioteki.
E-book
W koszyku
Forma i typ
Gatunek
W dniach 23-25 października 2017 roku na Uniwersytecie Ekonomicznym w Krakowie odbyła się XXVI Konferencja Naukowa Sekcji Klasyfikacji i Analizy Danych PTS (XXXI Konferencja Taksonomiczna) nt. „Klasyfikacja i analiza danych – teoria i zastosowania”, zorganizowana przez Sekcję Klasyfikacji i Analizy Danych Polskiego Towarzystwa Statystycznego oraz Katedrę Statystyki Wydziału Zarządzania Uniwersytetu Ekonomicznego w Krakowie. W trakcie dwóch sesji plenarnych oraz dziesięciu sesji równoległych wygłoszono 43 referaty poświęcone aspektom teoretycznym i aplikacyjnym zagadnienia klasyfikacji i analizy danych. Odbyła się również sesja plakatowa, na której zaprezentowano 18 plakatów. Teksty 23 recenzowanych artykułów naukowych stanowią zawartość publikacji z serii Taksonomia nr 31. Teksty 24 recenzowanych artykułów naukowych znajdują się w Taksonomii nr 30.
Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu PIN. Po odbiór kodu PIN zapraszamy do biblioteki.
E-book
W koszyku
Forma i typ
Gatunek
Niniejszy tom „Przeglądu Socjologicznego” prezentuje rozważania i wyniki analiz dotyczące zastosowań różnych, zarówno ilościowych jak i jakościowych technik w badaniach społecznych. Przedstawiamy teksty zgrupowane w trzech modułach tematycznych. Pierwszy omawia zagadnienia statusu metodologicznego różnego rodzaju technik badawczych, poczynając od propozycji klasyfikacji sondażowych technik otrzymywania materiałów, poprzez refleksje nad badaniami na małych próbach celowych, do analiz dotyczących badań ewaluacyjnych, panelu badawczego, sondażu perswazyjnego, wywiadów eksperckich i delfickich oraz wywiadu grupowego. W drugiej części przedstawiono teksty omawiające metodologiczne aspekty badania zjawisk społecznych na przykładzie postaw wobec bezrobocia oraz środowiska osób świadczących usługi seksualne. Trzeci moduł prezentuje artykuły poświęcone nowym technologiom w badaniach społecznych – głównie programom komputerowym do analizy danych jakościowych i badaniom internetowym.
Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu PIN. Po odbiór kodu PIN zapraszamy do biblioteki.
E-book
W koszyku

Analiza danych sprawia, że dzięki ich dużym i mniejszym kolekcjom uzyskujemy wartościową wiedzę, która pozwala na podejmowanie najlepszych decyzji. Dzieje się to poprzez odkrywanie wzorców lub trendów. Obecnie Python udostępnia przeznaczone specjalnie do tego celu narzędzia i biblioteki. Możemy więc łatwo korzystać z wyrafinowanych technik wydobywania wiedzy z danych. Aby jednak osiągnąć zamierzone efekty, trzeba dobrze poznać zarówno metodologię analizy danych, jak i zasady pracy ze służącymi do tego narzędziami.

Dzięki tej książce zdobędziesz wszystkie potrzebne informacje i umiejętności, aby skutecznie używać Pythona do analizy danych. Omówiono tu niezbędne podstawy statystyki i zasady analizy danych. Wyczerpująco przedstawiono zaawansowane zagadnienia dotyczące przygotowania, przetwarzania i modelowania danych, a także ich wizualizacji. W zrozumiały sposób wyjaśniono takie procesy jak inteligentne przetwarzanie i analizowanie danych za pomocą algorytmów uczenia maszynowego: regresji, klasyfikacji, analizy głównych składowych czy analizy skupień. Nie zabrakło praktycznych przykładów przetwarzania języka naturalnego i analizy obrazów. Ciekawym zagadnieniem jest również wykonywanie obliczeń równoległych za pomocą biblioteki Dask.

W książce między innymi:

  • podstawy analizy danych i korzystanie z bibliotek NumPy i pandas
  • praca z danymi w różnych formatach
  • interaktywna wizualizacja z bibliotekami Matplotlib, seaborn i Bokeh
  • inżynieria cech, analiza szeregów czasowych i przetwarzanie sygnałów
  • zaawansowana analiza danych tekstowych i obrazów

Python: wydobywaj z danych wiedzę o wielkiej wartości!

Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu dostępu, który można odebrać w bibliotece.
E-book
W koszyku

Wprawny analityk danych potrafi z nich uzyskać wiedzę ułatwiającą podejmowanie trafnych decyzji. Od kilku lat można do tego używać nowoczesnych narzędzi Pythona, które zbudowano specjalnie do tego celu. Praca z nimi nie wymaga głębokiej znajomości statystyki czy algebry. Aby cieszyć się uzyskanymi rezultatami, wystarczy się wprawić w stosowaniu kilku pakietów i środowisk Pythona.

Ta książka jest trzecim, starannie zaktualizowanym wydaniem wyczerpującego przewodnika po narzędziach analitycznych Pythona. Uwzględnia Pythona 3.0 i bibliotekę pandas 1.4. Została napisana w przystępny sposób, a poszczególne zagadnienia bogato zilustrowano przykładami, studiami rzeczywistych przypadków i fragmentami kodu. W trakcie lektury nauczysz się korzystać z możliwości oferowanych przez pakiety pandas i NumPy, a także środowiska IPython i Jupyter. Nie zabrakło wskazówek dotyczących używania uniwersalnych narzędzi przeznaczonych do ładowania, czyszczenia, przekształcania i łączenia zbiorów danych. Pozycję docenią analitycy zamierzający zacząć pracę w Pythonie, jak również programiści Pythona, którzy chcą się zająć analizą danych i obliczeniami naukowymi.

Dzięki książce nauczysz się:

  • eksplorować dane za pomocą powłoki IPython i środowiska Jupyter
  • korzystać z funkcji pakietów NumPy i pandas
  • używać pakietu matplotlib do tworzenia czytelnych wizualizacji
  • analizować i przetwarzać dane regularnych i nieregularne szeregi czasowe
  • rozwiązywać rzeczywiste problemy analityczne

Wes McKinney zaktualizował swoją książkę, aby była podstawowym źródłem informacji o wszystkich zagadnieniach związanych z analizą danych przy użyciu języka Python i biblioteki pandas. Gorąco polecam tę pozycję!

Paul Barry, wykładowca i autor książek

Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu dostępu, który można odebrać w bibliotece.
E-book
W koszyku

Dostęp do danych jest warunkiem rozwoju niejednej organizacji. Aby w pełni skorzystać z ich potencjału i uzyskać dzięki nim konkretną wartość, konieczne jest odpowiednie zarządzanie danymi. Obecnie stosowane rozwiązania w tym zakresie nie nadążają już za złożonością dzisiejszych organizacji, rozprzestrzenianiem się źródeł danych i rosnącymi aspiracjami inżynierów, którzy rozwijają techniki sztucznej inteligencji i analizy danych. Odpowiedzią na te potrzeby może być siatka danych (Data Mesh), jednak praktyczna implementacja tej koncepcji wymaga istotnej zmiany myślenia.

Ta książka szczegółowo wyjaśnia paradygmat siatki danych, a przy tym koncentruje się na jego praktycznym zastosowaniu. Zgodnie z tym nowatorskim podejściem dane należy traktować jako produkt, a dziedziny - jako główne zagadnienie. Poza wyjaśnieniem paradygmatu opisano tu zasady projektowania wysokopoziomowej architektury komponentów siatki danych, a także przedstawiono wskazówki i porady dotyczące ewolucyjnej realizacji siatki danych w organizacji. Tematyka ta została potraktowana wszechstronnie: omówiono kwestie technologiczne, organizacyjne, jak również socjologiczne i kulturowe. Dzięki temu jest to cenna lektura zarówno dla architektów i inżynierów, jak i dla badaczy, analityków danych, wreszcie dla liderów i kierowników zespołów.

W książce:

  • wyczerpujące wprowadzenie do paradygmatu siatki danych
  • siatka danych i jej komponenty
  • projektowanie architektury siatki danych
  • opracowywanie i realizacja strategii siatki danych
  • zdecentralizowany model własności danych
  • przejście z hurtowni i jezior danych do rozproszonej siatki danych

Siatka danych: kolejny etap rozwoju technologii big data!

Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu dostępu, który można odebrać w bibliotece.
E-book
W koszyku

Apache Spark jest oprogramowaniem open source, przeznaczonym do klastrowego przetwarzania danych dostarczanych w różnych formatach. Pozwala na uzyskanie niespotykanej wydajności, umożliwia też pracę w trybie wsadowym i strumieniowym. Framework ten jest również świetnie przygotowany do uruchamiania złożonych aplikacji, włączając w to algorytmy uczenia maszynowego czy analizy predykcyjnej. To wszystko sprawia, że Apache Spark stanowi znakomity wybór dla programistów zajmujących się big data, a także eksploracją i analizą danych.

To książka przeznaczona dla inżynierów danych i programistów, którzy chcą za pomocą Sparka przeprowadzać skomplikowane analizy danych i korzystać z algorytmów uczenia maszynowego, nawet jeśli te dane pochodzą z różnych źródeł. Wyjaśniono tu, jak dzięki Apache Spark można odczytywać i ujednolicać duże zbiory informacji, aby powstawały niezawodne jeziora danych, w jaki sposób wykonuje się interaktywne zapytania SQL, a także jak tworzy się potoki przy użyciu MLlib i wdraża modele za pomocą biblioteki MLflow. Omówiono również współdziałanie aplikacji Sparka z jego rozproszonymi komponentami i tryby jej wdrażania w poszczególnych środowiskach.

W książce:

  • API strukturalne dla Pythona, SQL, Scali i Javy
  • operacje Sparka i silnika SQL
  • konfiguracje Sparka i interfejs Spark UI
  • nawiązywanie połączeń ze źródłami danych: JSON, Parquet, CSV, Avro, ORC, Hive, S3 i Kafka
  • operacje analityczne na danych wsadowych i strumieniowanych
  • niezawodne potoki danych i potoki uczenia maszynowego

Spark: twórz skalowalne i niezawodne aplikacje big data!

Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu dostępu, który można odebrać w bibliotece.
Brak okładki
Książka
W koszyku
(Nauka o Danych i Sztuczna Inteligencja)
Zawiera: Wprowadzenie; O książce; 1. Wprowadzenie do SQL-a dla analityków: Wprowadzenie; Świat danych; Metody z obszaru statystyki opisowej; Testy istotności statystycznej; Relacyjne bazy danych i SQL; Podstawowe typy danych w SQL-u; Wczytywanie tabel kwerenda SELECT; Aktualizowanie tabel; Usuwanie danych i tabel; SQL i analityka; Podsumowanie; 2. Przygotowywanie danych za pomocą SQL-a: Wprowadzenie; Łączenie danych; Podsumowanie; 3. Agregacja i funkcje okna: Wprowadzenie; Funkcje agregujące; Funkcje agregujące z klauzulą GROUP BY; Klauzula HAVING; Stosowanie funkcji agregujących do oczyszczania danych i sprawdzania ich jakości; Funkcje okna; Obliczanie statystyk z użyciem funkcji okna; Podsumowanie; 4. Importowanie i eksportowanie danych: Wprowadzenie; Polecenie COPY; Zastosowanie języka R do bazy danych; Zastosowanie języka Python do bazy danych; Najlepsze praktyki z obszaru importowania i eksportowania danych; Podsumowanie; 5. Analityka z wykorzystaniem złożonych typów danych: Wprowadzenie; Wykorzystywanie typów danych z datami i czasem do analiz; Przeprowadzanie analiz geoprzestrzennych w PostgreSQL; Stosowanie tablicowych typów danych w PostgreSQL; Stosowanie formatu JSON w PostgreSQL; Analiza tekstu za pomocą PostgreSQL; Podsumowanie; 6. Wydajny SQL: Wprowadzenie; Metody skanowania baz danych; Wydajne złączenia; Funkcje i wyzwalacze; Podsumowanie; 7. Metoda naukowa i rozwiązywanie problemów w praktyce: Wprowadzenie; Studium przypadku; Podsumowanie; Dodatek: Rozdział 1. Wprowadzenie do SQL-a dla analityków; Rozdział 2. Przygotowywanie danych za pomocą SQL-a; Rozdział 3. Agregacja i funkcje okna; Rozdział 4. Importowanie i eksportowanie danych; Rozdział 5. Analizy z wykorzystaniem złożonych typów danych; Rozdział 6. Wydajny SQL; Rozdział 7. Metoda naukowa i rozwiązywanie problemów w praktyce.
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 004 (2 egz.)
E-book
W koszyku

Język SQL zwykle służy do pracy z bazami danych, jednak można go używać również do wydajnego przetwarzania ich wielkich zbiorów. W tym celu trzeba dobrze poznać to narzędzie. Wysiłek włożony w zrozumienie SQL-a na pewno się opłaci - dzięki analizie danych można wydobywać z nich bezcenną wiedzę, która bezpośrednio przekłada się na zyski firmy.

Ta książka stanowi świetne wprowadzenie do analizy danych. Dzięki niej nauczysz się korzystać z surowych danych, nawet jeśli nie masz odpowiedniego doświadczenia. Zaczniesz od formułowania hipotez i generowania statystyk opisowych, a następnie przystąpisz do pisania zapytań w języku SQL w celu agregowania, przeliczania i łączenia danych z różnych zbiorów. Zapoznasz się też z zaawansowanymi technikami, takimi jak analiza geoprzestrzenna i analiza tekstu. W książce omówiono również profilowanie i automatyzację, które umożliwiają szybsze i wydajniejsze pobieranie informacji. To wszystko pozwoli Ci na skuteczne korzystanie z SQL-a w codziennych scenariuszach biznesowych.

Najciekawsze zagadnienia:

  • gruntowne wprowadzenie do analityki danych
  • przygotowywanie danych do analizy
  • optymalizacja kwerend i złożone typy danych
  • funkcje agregujące, funkcja okna i inne metody analizy danych w SQL
  • jak odkrywać prawdę za pomocą SQL-a

SQL: spójrz na dane okiem wyszkolonego analityka!

Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu dostępu, który można odebrać w bibliotece.
E-book
W koszyku
SQL. Leksykon kieszonkowy / Alice Zhao ; przeł. Artur Dorda. - Wyd. 4 - [miejsce nieznane] : Helion : ebookpoint BIBLIO, 2022. - 280 s. ; 19 cm.
Forma i typ

Język SQL jest istotnym narzędziem nie tylko dla programistów, ale także dla analityków biznesowych i inżynierów danych. Nawet jeśli nieźle znasz składnię SQL, może się zdarzyć, że podczas pracy poczujesz potrzebę odświeżenia wiedzy czy też sprawdzenia jakiegoś szczegółu działania swojego zapytania SQL. W takich wypadkach nie potrzebujesz drobiazgowej specyfikacji technicznej ani opasłego podręcznika: po prostu zależy Ci na szybkim i pewnym odnalezieniu potrzebnej informacji bez przebijania się przez dogłębne wyjaśnienia.

To czwarte, poprawione i zaktualizowane wydanie cenionego leksykonu poświęconego SQL. Przemyślany układ zawartych w nim treści zdecydowanie ułatwia i przyspiesza wynajdywanie informacji ― bez konieczności odrywania się od pracy. Poza zwięzłymi objaśnieniami dotyczącymi składni SQL znajdziesz tu opis kluczowych aspektów języka SQL używanego w Microsoft SQL Server, MySQL, Oracle Database, PostgreSQL i SQLite. Ułatwi Ci to stosowanie tych systemów zarządzania bazami danych. Oprócz tego w książce szybko odszukasz szczegóły dotyczące typów danych i ich konwersji, składni wyrażeń regularnych, funkcji okna, pivotingu i unpivotingu, a także wielu innych zagadnień.

Dzięki książce:

  • szybko sprawdzisz, jak wykonać konkretne zadania za pomocą SQL
  • znajdziesz przydatne przykłady składni
  • sprawisz, aby zapytania SQL działały w różnych systemach zarządzania bazami danych
  • zastosujesz kod Pythona i R do pracy z relacyjną bazą danych
  • znajdziesz odpowiedzi na często zadawane pytania dotyczące SQL

Mijają lata, a w pracy z danymi to SQL wciąż jest najważniejszy!

Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu dostępu, który można odebrać w bibliotece.
Brak okładki
Książka
W koszyku
1. Wiadomości wprowadzające. 2. Opisowa analiza danych. 3. Modele w analizie danych. 4. Eksploracyjna analiza danych. 5. Analiza danych historycznych. 6. Analiza danych jakościowych.
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Czytelnia
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 311 (1 egz.)
Książka
W koszyku
Zawiera: Na początek: czy wiecie, że istnieje matematyczny wzór na dobre piwo? Ilu osób potrzeba, by napisać jedną książkę? Statystyka – królowa nauk czy popychadło medialnego świata? Czy naukowcy są jak żony i nigdy się nie mylą? Dlaczego koń i szop pracz nie dostały doktoratu? Skąd wiemy, że owca rozpoznałaby na ulicy prezydenta? Czy kiedy wychodzimy z psem na spacer, to średnio mamy po trzy nogi? Czy 117% Polaków może się mylić? Czy da się zmierzyć szczęście linijką? Czy po seksie będziemy opanierowani w banknotach niczym krokiet w bułce? Na imieniny lepiej kupić czekoladki czy kokainę? Czy jesteśmy rasistami? Czy jak wsadzimy głowę do lodówki, a nogi do piekarnika, to będzie nam w sam raz? Ile trzeba zjeść czekolady, żeby dostać Nobla? Czy język angielski powoduje zawały serca, a masło przedłuża życie? Czego statystyka nauczyła się od martwego łososia? Dlaczego ufamy szarlatanom? Na koniec: dlaczego wciąż się wzruszam na myśl o bezdomnych lamach?
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 311 (3 egz.)
E-book
W koszyku

Metody statystyczne są kluczowym narzędziem w data science, mimo to niewielu analityków danych zdobyło wykształcenie w ich zakresie. Może im to utrudniać uzyskiwanie dobrych efektów. Zrozumienie praktycznych zasad statystyki okazuje się ważne również dla programistów R i Pythona, którzy tworzą rozwiązania dla data science. Kursy podstaw statystyki rzadko jednak uwzględniają tę perspektywę, a większość podręczników do statystyki w ogóle nie zajmuje się narzędziami wywodzącymi się z informatyki.

To drugie wydanie popularnego podręcznika statystyki przeznaczonego dla analityków danych. Uzupełniono je o obszerne przykłady w Pythonie oraz wyjaśnienie, jak stosować poszczególne metody statystyczne w problemach data science, a także jak ich nie używać. Skoncentrowano się też na tych zagadnieniach statystyki, które odgrywają istotną rolę w data science. Wyjaśniono, które koncepcje są ważne i przydatne z tej perspektywy, a które mniej istotne i dlaczego. Co ważne, poszczególne koncepcje i zagadnienia praktyczne przedstawiono w sposób przyswajalny i zrozumiały również dla osób nienawykłych do posługiwania się statystyką na co dzień.

W książce między innymi:

  • analiza eksploracyjna we wstępnym badaniu danych
  • próby losowe a jakość dużych zbiorów danych
  • podstawy planowania eksperymentów
  • regresja w szacowaniu wyników i wykrywaniu anomalii
  • statystyczne uczenie maszynowe
  • uczenie nienadzorowane a znaczenie danych niesklasyfikowanych

Statystyka: klasyczne narzędzia w najnowszych technologiach!

Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu dostępu, który można odebrać w bibliotece.
E-book
W koszyku
W dniach 15-17 września 2010 roku w Hotelu Filmar w Toruniu odbyła się XIX Konferencja Naukowa Sekcji Klasyfikacji i Analizy Danych PTS (XXIV Konferencja Taksonomiczna) nt. Klasyfikacja i analiza danych – teoria i zastosowania, organizowana przez Sekcję Klasyfikacji i Analizy Danych Polskiego Towarzystwa Statystycznego, Katedrę Ekonometrii i Statystyki Uniwersytetu Mikołaja Kopernika w Toruniu oraz Katedrę Metod Ilościowych Wyższej Szkoły Bankowej w Toruniu. Przewodniczącym Komitetu Organizacyjnego Konferencji był dr hab. Tadeusz Kufel, prof. nadzw. UMK, natomiast sekretarzami dr Marcin Błażejowski i mgr Paweł Kufel. Zakres tematyczny konferencji obejmował zagadnienia: a) teoria (taksonomia, analiza dyskryminacyjna, metody porządkowania liniowego, metody statystycznej analizy wielowymiarowej, metody analizy zmiennych ciągłych, metody analizy zmiennych dyskretnych, metody analizy danych symbolicznych, metody graficzne). b) zastosowania (analiza danych finansowych, analiza danych marketingowych, analiza danych przestrzennych, inne zastosowania analizy danych – medycyna, psychologia, archeologia, itd., aplikacje komputerowe metod statystycznych). Zasadniczym celem konferencji SKAD była prezentacja osiągnięć i wymiana.
Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu PIN. Po odbiór kodu PIN zapraszamy do biblioteki.
E-book
W koszyku
W dniach 8-10 września 2014 roku w Hotelu Aurora w Międzyzdrojach odbyła się XXIII Konferencja Naukowa Sekcji Klasyfikacji i Analizy Danych PTS (XXVIII Konferencja Taksonomiczna) nt. Klasyfikacja i analiza danych – teoria i zastosowania, zorganizowana przez Sekcję Klasyfikacji i Analizy Danych Polskiego Towarzystwa Statystycznego oraz Instytut Ekonometrii i Statystyki i Katedrę Ubezpieczeń i Rynków Kapitałowych Wydziału Nauk Ekonomicznych i Zarządzania Uniwersytetu Szczecińskiego. Przewodniczącymi Komitetu Organizacyjnego konferencji byli prof. dr hab. Waldemar Tarczyński oraz prof. US dr hab. Jacek Batóg, sekretarzem naukowym dr hab. Iwona Markowicz, a sekretarzami organizacyjnymi dr Beata Bieszk-Stolorz, dr Barbara Batóg i dr Monika Rozkrut. Konferencja naukowa została dofinansowana ze środków Narodowego Banku Polskiego. Zakres tematyczny konferencji obejmował zagadnienia, które można podzielić na 2 grupy: a) teoria (taksonomia, analiza dyskryminacyjna, metody porządkowania linio-wego, metody statystycznej analizy wielowymiarowej, metody analizy zmiennych ciągłych, metody analizy zmiennych dyskretnych, metody analizy danych symbo-licznych, metody graficzne), b) zastosowania (analiza danych finansowych, analiza danych marketingowych, analiza danych przestrzennych, inne zastosowania analizy danych – medycyna, psychologia, archeologia itd., aplikacje komputerowe metod statystycznych). Zasadniczym celem konferencji SKAD była prezentacja osiągnięć i wymiana doświadczeń z zakresu teoretycznych i aplikacyjnych zagadnień klasyfikacji i analizy danych. Konferencja stanowi coroczne forum służące podsumowaniu obecne-go stanu wiedzy, przedstawieniu i promocji dokonań nowatorskich oraz wskazaniu kierunków dalszych prac i badań.
Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu PIN. Po odbiór kodu PIN zapraszamy do biblioteki.
Brak okładki
Książka
W koszyku
List of Tables, Figures, and Case Studies; Preface; Acknowledgments; Author Biographies. 1. Define the Business Challange; 2. Understand the Analytics Domain; 3. Estabilish an Effective Team; 4. Form Your Hypothesis; 5. Run Basic Analyses; 6. Explore Complex Analyses; 7. Use Data to Inform Your Decisions; 8. Communicate Your Findings; 9. Evaluate Your Intervention; Appendix A. How Analytics Fit into the SHRM Competency Model; Appendix B. Assess Yourself; Appendix C. Evaluate Your Data; Appendix D. Choose Your HR Metrics; Appendix E. Identify Your Stakeholders; Appendix F. Develop Your Hypotheses; Appendix G. Choose Your Statistical Test; Appendix H. Write Your Analysis Plan; Appendix I. Summarize Your Findings; Appendix J. Tell Your Story; Appendix K. Plan Your Evaluation; Appendix L. Communicate Your Plan; Appendix M. Set U pan Analytics Function. Bibliography; Additional References Materials; Index.
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 658.3 (2 egz.)
Pozycja została dodana do koszyka. Jeśli nie wiesz, do czego służy koszyk, kliknij tutaj, aby poznać szczegóły.
Nie pokazuj tego więcej