„Teksty z Ulicy. Zeszyt memetyczny” to jedyne w kraju czasopismo naukowe, poświęcone badaniu zjawisk społecznych i kulturowych w perspektywie memetycznej. Od 2005 roku publikuje artykuły naukowe, monograficzne i przeglądowe badaczy reprezentujących różne dyscypliny nauk społecznych, przyrodniczych i humanistycznych, którzy aplikują memetykę do swych warsztatów badawczych. Jest to czasopismo interdyscyplinarne, obrazujące ewolucję teorii memu oraz możliwości jej stosowania w analizie i interpretacji zachowań społecznych (mody, kulty, epidemie, ideologie), w badaniu języka mediów ( memy internetowe, netlore, netykieta), komunikacji społecznej (np. reklama), replikacji pamięci kulturowej (tradycje, kultura masowa i popularna, cyberkultura) oraz koewolucji genetyczno-kulturowej i ewolucji maszyn. Publikuje również dyskusje, polemiki i recenzje prac interesujących dla memetyki i jej krytyków. Posiada wersję online w otwartym dostępie www.memetyka.us.edu.pl Na liście ministerialnej B – 5 punktów. Siedziba Redakcji: Instytut Nauk o Kulturze i Studiów Interdyscyplinarnych, Wydział Filologiczny, Uniwersytet Śląski, Plac Sejmu Śląskiego 1, 40-032 Katowice. Redaktor naczelna: dr hab. Dobrosława Wężowicz-Ziółkowska, e-mail: dobroslawa.wezowicz-ziolkowska@us.edu.pl. Aktualny numer jest poświęcony dyskusjom z Susan Blackmore i jej teoriami człowieka jako maszyny memowej. Temat został sprowokowany spotkaniem z Autorką „ The Meme Machine”, jakie odbyło się w Warszawie na Wydziale Lingwistyki Stosowanej na specjalne zaproszenie dra Roberta Borocha - redaktora tematycznego tego numeru.
1. Intuicyjne omówienie sztucznej inteligencji Czym jest sztuczna inteligencja? Krótka historia sztucznej inteligencji. Rodzaje problemów i modele ich rozwiązywania. Intuicyjne omówienie zagadnień z obszaru sztucznej inteligencji. Zastosowania algorytmów sztucznej inteligencji. 2. Podstawy przeszukiwania. Czym jest planowanie i przeszukiwanie? Koszt obliczeń - powód stosowania inteligentnych algorytmów. Jakie problemy można rozwiązywać za pomocą algorytmów przeszukiwania? Reprezentowanie stanu - tworzenie platformy do reprezentowania przestrzeni problemowej i rozwiązań. Przeszukiwanie siłowe - szukanie rozwiązań po omacku. Przeszukiwanie wszerz - najpierw wszerz, potem w głąb. Przeszukiwanie w głąb - najpierw w głąb, potem wszerz. Zastosowania siłowych algorytmów przeszukiwania. Opcjonalne informacje - rodzaje grafów. Opcjonalne informacje - inne sposoby reprezentowania grafów. 3. Inteligentne przeszukiwanie. Definiowanie heurystyk - projektowanie hipotez opartych na wiedzy. Przeszukiwanie sterowane - szukanie rozwiązań z wykorzystaniem wskazówek. Przeszukiwanie antagonistyczne - szukanie rozwiązań w zmiennym środowisku. 4. Algorytmy ewolucyjne. Czym jest ewolucja? Problemy, jakie można rozwiązywać za pomocą algorytmów ewolucyjnych. Algorytm genetyczny - cykl życia. Kodowanie przestrzeni rozwiązań. Tworzenie populacji rozwiązań. Pomiar przystosowania osobników w populacji. Wybór rodziców na podstawie przystosowania. Generowanie osobników na podstawie rodziców. Tworzenie populacji następnego pokolenia. Konfigurowanie parametrów algorytmu genetycznego. Zastosowania algorytmów ewolucyjnych. 5. Zaawansowane techniki ewolucyjne. Cykl życia algorytmu ewolucyjnego. Różne strategie selekcji. Kodowanie z użyciem liczb rzeczywistych. Kodowanie porządkowe - korzystanie z sekwencji. Kodowanie za pomocą drzewa - praca z hierarchiami. Często spotykane rodzaje algorytmów ewolucyjnych. Słowniczek pojęć związanych z algorytmami ewolucyjnymi. Inne zastosowania algorytmów ewolucyjnych. 6. Inteligencja rozproszona: mrówki. Czym jest inteligencja rozproszona? Problemy dostosowane do algorytmu mrówkowego. Reprezentowanie stanu - jak zapisać ścieżki i mrówki? Cykl życia algorytmu mrówkowego. Zastosowania algorytmu mrówkowego. 7. Inteligencja rozproszona: cząstki. Na czym polega optymalizacja rojem cząstek? Problemy optymalizacyjne - bardziej techniczne spojrzenie. Problemy, jakie można rozwiązać za pomocą optymalizacji rojem cząstek. Reprezentowanie problemu - jak wyglądają cząstki? Przebieg działania algorytmu optymalizacji rojem cząstek. Zastosowania algorytmów optymalizacji rojem cząstek. 8. Uczenie maszynowe. Czym jest uczenie maszynowe? Problemy, jakie można rozwiązywać za pomocą uczenia maszynowego. Przebieg uczenia maszynowego. Klasyfikowanie z użyciem drzew decyzyjnych. Inne popularne algorytmy uczenia maszynowego. Zastosowania algorytmów uczenia maszynowego. 9. Sztuczne sieci neuronowe. Czym są sztuczne sieci neuronowe? Perceptron: reprezentacja neuronu. Definiowanie sieci ANN. Propagacja w przód - używanie wyuczonej sieci ANN. Propagacja wsteczna - uczenie sieci ANN. Możliwe funkcje aktywacji. Projektowanie sztucznych sieci neuronowych. Typy i zastosowania sieci ANN. 10. Uczenie przez wzmacnianie z użyciem algorytmu Q-learning. Czym jest uczenie przez wzmacnianie? Problemy rozwiązywane za pomocą uczenia przez wzmacnianie. Przebieg uczenia przez wzmacnianie. Deep learning w uczeniu przez wzmacnianie. Zastosowania uczenia przez wzmacnianie.
Czy sztuczna inteligencja pozbawia nas pracy? Algorytmy przejmują władzę nad światem? Czy big data sprawia, że jesteśmy bezustannie inwigilowani, a ogromna ilość danych zastępuje ekspertów i naukowców? Cokolwiek sądzimy na te tematy, jedno jest pewne – istnieje heterogeniczne środowisko ludzi zajmujących się tzw. „sztuczną inteligencją” czy tzw. „big data” od strony technicznej oraz metodologicznej. Pole ich działania nazywane jest data science, a oni – data scientists. Publikacja to pierwsza monografia socjologiczna dotycząca data science i pierwsza praca w naukach społecznych, w której data science zostało zbadane jako społeczny świat w rozumieniu Adele E. Clarke. Podejście to pozwala spojrzeć na data science, nazwane dekadę wstecz w „Harvard Business Review” „najseksowniejszym zawodem XXI wieku”, zarówno z perspektywy jego uczestników, jak i z lotu ptaka, w relacji do akademii, biznesu, prawa, mediów czy polityki.
Czy sztuczna inteligencja pozbawia nas pracy? Algorytmy przejmują władzę nad światem? Czy big data sprawia, że jesteśmy bezustannie inwigilowani, a ogromna ilość danych zastępuje ekspertów i naukowców? Cokolwiek sądzimy na te tematy, jedno jest pewne - istnieje heterogeniczne środowisko ludzi zajmujących się tzw. "sztuczną inteligencją" czy tzw. "big data" od strony technicznej oraz metodologicznej. Pole ich działania nazywane jest data science, a oni - data scientists.
Publikacja to pierwsza monografia socjologiczna dotycząca data science i pierwsza praca w naukach społecznych, w której data science zostało zbadane jako społeczny świat w rozumieniu Adele E. Clarke. Podejście to pozwala spojrzeć na data science, nazwane dekadę wstecz w "Harvard Business Review" "najseksowniejszym zawodem XXI wieku", zarówno z perspektywy jego uczestników, jak i z lotu ptaka, w relacji do akademii, biznesu, prawa, mediów czy polityki.
Opinie o książce; Wstęp: Dla kogo jest przeznaczona ta książka?; Co musisz wiedzieć?; Czego się nauczysz dzięki tej książce?; Przedmowa; Część I. Uczenie głębokie w praktyce; Rozdział 1. Podróż po świecie uczenia głębokiego: Uczenie głębokie jest dla każdego; Sieci neuronowe krótka historia; Kim jesteśmy?; Jak zdobyć wiedzę o uczeniu głębokim?; Twoje projekty i Twój sposób myślenia; Oprogramowanie: PyTorch, fastai i Jupyter (i dlaczego nie ma to znaczenia); Twój pierwszy model; Uzyskanie dostępu do serwera z procesorem graficznym i możliwością realizowania uczenia głębokiego; Uruchomienie pierwszego notatnika; Co to jest uczenie maszynowe?; Co to jest sieć neuronowa?; Trochę słownictwa związanego z uczeniem głębokim; Ograniczenia związane z uczeniem maszynowym; Jak działa nasz program do rozpoznawania obrazów; Czego nauczył się program do rozpoznawania obrazów?; Systemy do rozpoznawania obrazów mogą radzić sobie z zadaniami innymi niż analiza obrazów; Podsumowanie słownictwa; Uczenie głębokie to nie tylko klasyfikowanie obrazów; Zbiory walidacyjne i testowe; Użycie oceny w definiowaniu zbiorów testowych; Moment, w którym wybierasz swoją własną przygodę; Pytania; Dalsze badania; Rozdział 2. Od modelu do produkcji: Praktyczne zastosowanie uczenia głębokiego; Rozpoczęcie projektu; Stan uczenia głębokiego; Widzenie komputerowe; Dokumenty tekstowe (przetwarzanie języka naturalnego); Łączenie tekstu z obrazami; Dane tabelaryczne; Systemy rekomendacji; Inne typy danych; Metoda układu napędowego; Gromadzenie danych; Od danych do obiektu DataLoaders; Generowanie sztucznych danych; Trenowanie modelu i używanie go do czyszczenia danych; Przekształcanie modelu w aplikację internetową; Korzystanie z modelu do wnioskowania; Tworzenie w notatniku aplikacji na podstawie modelu; Zamień notatnik w prawdziwą aplikację; Wdrażanie aplikacji; Jak uniknąć katastrofy; Nieprzewidziane konsekwencje i pętle sprzężenia zwrotnego; Zapisuj!; Pytania; Dalsze badania; Rozdział 3. Etyka danych: Kluczowe przykłady etyki danych; Błędy i regresja: wadliwy algorytm używany do świadczeń opieki zdrowotnej; Pętle sprzężenia zwrotnego: system rekomendacji YouTube; Uprzedzenie: wykładowca Latanya Sweeney aresztowana; Dlaczego ma to znaczenie?; Integracja uczenia maszynowego z projektowaniem produktu; Zagadnienia związane z etyką danych; Regres i odpowiedzialność; Pętle sprzężenia zwrotnego; Uprzedzenie; Uprzedzenie historyczne; Uprzedzenie pomiarowe; Uprzedzenie agregacyjne; Uprzedzenie reprezentacyjne; Rozwiązywanie problemów związanych z różnymi rodzajami uprzedzeń; Dezinformacja; Identyfikowanie i rozwiązywanie problemów etycznych; Przeanalizuj projekt, nad którym pracujesz; Procesy do zaimplementowania; Pryzmat etyczny; Potęga różnorodności; Uczciwość, odpowiedzialność i przejrzystość; Rola polityki; Skuteczność przepisów; Prawa i polityka; Samochody historyczny precedens; Wnioski; Pytania; Dalsze badania; Uczenie głębokie w praktyce to wszystko!; Część II. Zrozumienie aplikacji fastai: Rozdział 4. Jak to wygląda od środka trenowanie klasyfikatora cyfr: Piksele podstawa widzenia komputerowego; Podejście pierwsze: podobieństwo pikseli; Tablice NumPy i tensory PyTorch; Wyznaczanie wskaźników z wykorzystaniem rozgłaszania; Stochastyczny spadek wzdłuż gradientu; Wyznaczanie gradientów; Stopniowanie ze współczynnikiem uczenia; Kompleksowy przykład użycia stochastycznego spadku wzdłuż gradientu; Etap 1.: inicjalizacja parametrów; Etap 2.: obliczanie prognoz; Etap 3.: obliczanie straty; Etap 4.: obliczanie gradientów; Etap 5.: stopniowanie wag; Etap 6.: powtórzenie procesu; Etap 7.: koniec; Podsumowanie procesu stochastycznego spadku wzdłuż gradientu; Funkcja straty MNIST; Sigmoida; Stochastyczny spadek wzdłuż gradientu i minipaczki; Złożenie wszystkiego w całość; Tworzenie optymalizatora; Wprowadzanie nieliniowości; Bardziej rozbudowane modele; Podsumowanie słownictwa; Pytania; Dalsze badania; Rozdział 5. Klasyfikowanie obrazów: Od psów i kotów do ras zwierząt domowych; Dobór wstępny; Sprawdzanie i debugowanie obiektu DataBlock; Entropia krzyżowa; Przeglądanie aktywacji i etykiet; Softmax; Logarytm prawdopodobieństwa; Obliczanie logarytmu; Interpretacja modelu; Poprawianie modelu; Wyszukiwarka współczynnika uczenia; Odmrażanie i uczenie transferowe; Dyskryminatywne współczynniki uczenia; Wybór liczby epok; Bardziej złożone architektury; Podsumowanie; Pytania; Dalsze badania; Rozdział 6. Inne zagadnienia związane z widzeniem komputerowym: Klasyfikacja wieloetykietowa; Dane; Tworzenie obiektu DataBlock; Binarna entropia krzyżowa; Regresja; Gromadzenie danych; Trenowanie modelu; Podsumowanie; Pytania; Dalsze badania; Rozdział 7. Trenowanie supernowoczesnego modelu: Imagenette; Normalizacja; Progresywna zmiana rozmiaru; Wydłużenie czasu testu; Mixup; Wygładzanie etykiet; Podsumowanie; Pytania; Dalsze badania; Rozdział 8. Szczegółowa analiza filtrowania zespołowego: Pierwszy kontakt z danymi; Czynniki ukryte; Tworzenie obiektu DataLoaders; Filtrowanie zespołowe od podstaw; Wygaszanie wag; Tworzenie własnego modułu osadzania; Interpretacja osadzeń i przesunięć; Użycie aplikacji fastai.collab; Odległość osadzania; Uruchamianie modelu filtrowania zespołowego; Uczenie głębokie w filtrowaniu zespołowym; Podsumowanie; Pytania; Dalsze badania; Rozdział 9. Szczegółowa analiza modelowania tabelarycznego: Osadzenia skategoryzowane; Poza uczeniem głębokim; Zbiór danych; Konkursy Kaggle; Sprawdzenie danych; Drzewa decyzyjne; Obsługa dat; Użycie obiektów TabularPandas i TabularProc; Tworzenie drzewa decyzyjnego; Zmienne skategoryzowane; Lasy losowe; Tworzenie lasu losowego; Błąd out-of-bag; Interpretacja modelu; Wariancja drzewa dla pewności prognozy; Ważności cech; Usuwanie zmiennych o niskiej ważności; Usuwanie zbędnych cech; Częściowa zależność; Wyciek danych; Interpreter drzewa; Ekstrapolacja i sieci neuronowe; Problem ekstrapolacji; Wyszukiwanie danych spoza domeny; Użycie sieci neuronowej; Łączenie w zespoły; Wzmacnianie; Łączenie osadzeń z innymi metodami; Podsumowanie; Pytania; Dalsze badania; Rozdział 10. Szczegółowa analiza przetwarzania języka naturalnego rekurencyjne sieci neuronowe: Wstępne przetwarzanie tekstu; Tokenizacja; Tokenizacja słów przy użyciu biblioteki fastai; Tokenizacja podłańcuchów; Zamiana na liczby przy użyciu biblioteki fastai; Umieszczanie tekstu w paczkach dla modelu językowego; Trenowanie klasyfikatora tekstu; Użycie klasy DataBlock w modelu językowym; Dostrajanie modelu językowego; Zapisywanie i wczytywanie modeli; Generowanie tekstu; Tworzenie klasyfikatora DataLoaders; Dostrajanie klasyfikatora; Dezinformacja i modele językowe; Podsumowanie; Pytania; Dalsze badania; Rozdział 11. Przygotowywanie danych dla modeli za pomocą interfejsu API pośredniego poziomu z biblioteki fastai: Szczegółowa analiza warstwowego interfejsu programistycznego biblioteki fastai; Transformacje; Tworzenie własnej transformacji; Klasa Pipeline potoku transformacji; TfmdLists i Datasets kolekcje przekształcone; TfmdLists; Datasets; Zastosowanie interfejsu API pośredniego poziomu SiamesePair; Podsumowanie; Pytania; Dalsze badania; Zrozumienie aplikacji fastai podsumowanie; Część III. Podstawy uczenia głębokiego: Rozdział 12. Tworzenie od podstaw modelu językowego: Dane; Tworzenie od podstaw pierwszego modelu językowego; Obsługa modelu językowego w bibliotece PyTorch; Pierwsza rekurencyjna sieć neuronowa; Ulepszanie sieci RNN; Obsługa stanu sieci RNN; Tworzenie większej liczby sygnałów; Wielowarstwowe rekurencyjne sieci neuronowe; Model; Eksplodujące lub zanikające aktywacje; Architektura LSTM; Tworzenie modelu LSTM od podstaw; Trenowanie modelu językowego wykorzystującego architekturę LSTM; Regularyzacja modelu LSTM; Dropout; Regularyzacja aktywacji i czasowa regularyzacja aktywacji; Trening regularyzowanego modelu LSTM z wiązanymi wagami; Podsumowanie; Pytania; Dalsze badania; Rozdział 13. Konwolucyjne sieci neuronowe: Magia konwolucji; Odwzorowywanie jądra splotu; Konwolucje w bibliotece PyTorch; Kroki i dopełnienie; Zrozumienie równań konwolucji; Pierwsza konwolucyjna sieć neuronowa; Tworzenie konwolucyjnej sieci neuronowej; Zrozumienie arytmetyki konwolucji; Pola receptywne; Kilka uwag o Twitterze; Obrazy kolorowe; Ulepszanie stabilności trenowania; Prosty model bazowy; Zwiększenie wielkości paczki; Trenowanie jednocykliczne; Normalizacja wsadowa; Podsumowanie; Pytania; Dalsze badania; Rozdział 14. Sieci ResNet: Powrót do Imagenette; Tworzenie nowoczesnej konwolucyjnej sieci neuronowej ResNet; Pomijanie połączeń; Model sieci ResNet na poziomie światowym; Warstwy z wąskim gardłem; Podsumowanie; Pytania; Dalsze badania; Rozdział 15. Szczegółowa analiza architektur aplikacji: Widzenie komputerowe; Funkcja cnn_learner; Funkcja unet_learner; Model syjamski; Przetwarzanie języka naturalnego; Dane tabelaryczne; Podsumowanie; Pytania; Dalsze badania; Rozdział 16. Proces trenowania: Tworzenie modelu bazowego; Ogólny optymalizator; Momentum; RMSProp; Adam; Dwie metody wygaszania wag; Wywołania zwrotne; Tworzenie wywołania zwrotnego; Kolejność wywołań zwrotnych i wyjątki; Podsumowanie; Pytania; Dalsze badania; Podstawy uczenia głębokiego podsumowanie; Część IV. Uczenie głębokie od podstaw: Rozdział 17. Sieć neuronowa od podstaw: Tworzenie od podstaw warstwy sieci neuronowej; Modelowanie neuronu; Mnożenie macierzy od podstaw; Arytmetyka składowych; Rozgłaszanie; Rozgłaszanie wartości skalarnej; Rozgłaszanie wektora na macierz; Zasady rozgłaszania; Konwencja sumacyjna Einsteina; Przejścia w przód i wstecz; Definiowanie i inicjalizowanie warstwy; Gradienty i przejście wstecz; Modyfikowanie modelu; Implementacja przy użyciu biblioteki PyTorch; Podsumowanie; Pytania; Dalsze badania; Rozdział 18. Interpretacja sieci CNN przy użyciu mapy aktywacji klas: Mapa aktywacji klas i punkty zaczepienia; Gradientowa mapa aktywacji klas; Podsumowanie; Pytania; Dalsze badania; Rozdział 19. Klasa Learner biblioteki fastai od podstaw: Dane; Klasa Dataset; Klasy Module i Parameter; Prosta konwolucyjna sieć neuronowa; Funkcja straty; Klasa Learner; Wywołania zwrotne; Harmonogram modyfikowania współczynnika uczenia; Podsumowanie; Pytania; Dalsze badania; Rozdział 20. Uwagi końcowe: Dodatek A. Tworzenie bloga; Blogowanie przy użyciu usługi GitHub Pages; Tworzenie repozytorium; Konfigurowanie strony głównej; Tworzenie wpisów; Synchronizowanie GitHuba z własnym komputerem; Tworzenie bloga za pomocą notatnika Jupytera; Dodatek B. Lista kontrolna projektu dotyczącego danych; Analitycy danych; Strategia; Dane; Analityka; Implementacja; Utrzymywanie; Ograniczenia; O autorach; Podziękowania; Kolofon.
Problemy efektywnego zarządzania; Istota zarządzania i procesy zarządzania; Zarządzanie jako przetwarzanie informacji; Zarządzanie a wiedza; Systemy sztucznej inteligencji; Wybrane problemy budowy i funkcjonowania systemów ekspertowych; Pojęcie systemu ekspertowego; Wiedza i jej reprezentacja; Pozyskiwanie wiedzy w systemach zarządzania; Wykorzystywanie szeregów czasowych jako źródła wiedzy systemów ekspertowych; Systemy ekspertowe wspomagające zarządzanie; Kierunki zastosowań systemów ekspertowych w zarządzaniu; Konfigurowanie systemu komputerowego na przykładzie systemu XCON; Harmonogramowanie zadań produkcyjnych na przykładzie systemu ISIS; Tendencje rozwojowe sztucznej inteligencji; Odkrywanie wiedzy w systemach informatycznych zarządzania; Systemy wnioskujące na podstawie przypadków; Istota systemu tablicowego.