Natychmiastowy dostęp
Od oceny przydatności danych, poprzez omówienie modeli i analizę predykcji do poprawy jakości i wdrożenia modeli
ponad 100 pytań quizowych + klucz
Wszystkie lekcje są prezentowany na podstawie praktycznych przykładów - które możesz bezpośrednio zastosować w pracy
Marcin Szeliga - Artificial Intelligence Microsoft MVP
O dowolnej porze masz możliwość kontaktu z trenerem i pozostałymi uczestnikami
Wszystkie prezentowane skrypty i materiały możesz pobrać na lokalny komputer aby z łatwością powtórzyć
W ciągu 14 dni od rozpoczęcia kursu, możesz zrezygnować z niego, wysyłając maila, zwrot 100% wpłaty
Po zakończeniu otrzymasz tradycyjny, drukowany certyfikat, podpisany przez trenera
Wybór i wdrożenie formalnej metodyki ma kapitalny wpływ na powodzenie projektów uczenia maszynowego. Przede wszystkim pozwala budować wiarygodne modele, czyli zapobiega próbom naginania rzeczywistości do postawionych hipotez. Ponadto pozwala efektywnie rozwiązywać problemy z jakością modeli. Kurs zaczniemy od omówienia sprawdzonych metodyk prowadzenia projektów Data Science.
Historycznie pierwszym, i wciąż niesłychanie popularnym, językiem danych jest SQL, czyli strukturalny język zapytań. Ten wzorowany na potocznym języku angielskim język pozwala bardzo efektowanie przechowywać i przetwarzać duże zbiory danych — dane przechowywane są w tabelach, a do ich przetwarzania używa się zapytań.Jednak język SQL ma też swoje ograniczenia. Jednym z nich jest brak wsparcia dla algorytmów uczenia maszynowego. Potrzebujemy do tego innych języków, takich jak Python lub R.
W uczeniu maszynowym najważniejsze są dane. Im więcej danych treningowych i im lepsza ich jakość, tym lepsze uzyskamy wyniki modelowania. Z drugiej trony, dane niskiej jakości skazują projekt na niepowodzenie. Warto wiec umieć ocenić przydatność danych.
Dane źródłowe nigdy nie są gotowe do modelowania, niezależnie od tego, jak są zbierane i przetwarzane. Zawsze konieczne jest ich przygotowanie i wyczyszczenie. W tym bloku poznamy najczęściej stosowane techniki uzupełniania brakujących wartości, kodowania zmiennych, normalizacji i redukcji wymiarów.
Wzbogacenia danych polega na wprowadzaniu nowych zmiennych (cech), z reguły wyliczonych na podstawie posiadanych danych. Dzięki temu, że zmienne te lepiej reprezentują modelowanie zagadnienie, wzbogacając dane możemy znacząco poprawić jakość modeli.
Pierwszą techniką uczenia maszynowego jak poznamy jest analiza skupień — klasyczny przykład zastosowania uczenia nienadzorowanego. Pozwala ona zredukować liczbę obserwacji oraz zmiennych (a więc jest przydatna na etapie wzbogacania danych), ponadto umożliwia wykrycie podobnych obserwacji oraz anomalii.
W tym bloku poznamy najczęściej stosowane modele parametryczne oraz partycjonujące i nauczymy się ich stosować do wyszukiwania korelacji ukrytych w danych, w celu jak najdokładniejszego oszacowania wartości zmiennej wyjściowej na podstawie zmiennych wejściowych.
Klasyfikacja, tak jak regresja, jest metodą uczenia nadzorowanego. Jej celem jest znalezienie klasyfikatora – modelu, który nauczony na przykładach będzie potrafił przypisać nowe obserwacje do jednej z możliwych klas. W tym bloku nauczymy się budować klasyfikatory.
Głębokie uczenie polega na automatycznym znajdowaniu przez model cech (zmiennych), które z perspektywy modelu lepiej opisują modelowane zagadnienie, a następnie użyciu tych cech do predykcji. W tym bloku poznamy budowę i działanie sztucznych sieci neuronowych oraz nauczymy się stosować odpowiednie wersji tych sieci to analizy obrazów, kodowania danych i prognozowania szeregów czasowych.
Najczęściej oceniamy modele ze względu na trafność i stabilność predykcji –temu tematowi poświęcony został bieżący blok kursu. Dowiemy się w nim, że nie ma najlepszego algorytmu uczenia maszynowego i nauczymy się rzetelnie porównywać modele.
Trafność modeli to nie jedyne kryterium, jakie powinniśmy wziąć pod uwagę przy ich ocenianiu. Równie ważna jest ich wiarygodność, na którą składają się uczciwość modeli (czyli to, że wyniki predykcji nie są zniekształcone), interpretowalność wyników i bezbłędność. Tym kwestiom zajmiemy się w bieżącym module.
Rozwiązując problem budujemy wiele modeli kandydujących, a następnie wybieramy najlepszy z nich. W tym bloku nauczymy się optymalizować hiperparametry modeli oraz stosować techniki automatycznego uczenia maszynowego.
Zbudowanie wystarczająco dobrego modelu nie kończy procesu Data Science. Teraz musimy jeszcze udostępnić nasz model użytkownikom — jak to zrobić dowiemy się z ostatniego bloku naszego kursu.
Wszyscy uczestnicy szkolenia, otrzymają książkę, której autorem jest Marcin Szeliga:
Praktyczne uczenie maszynowe (Wydawnictwo Naukowe PWN) – najlepsza książka informatyczną roku 2020 (Wydawnictwo Naukowe PWN) – najlepsza książka informatyczną roku 2020
W ciągu 14 dni od udostępnienia wszystkich materiałów, możesz zrezygnować z niego, wysyłając maila na adres kontakt@kursysql.pl – zwrócę Ci 100% wpłaconej kwoty
Tak! Wyślij na adres kontakt@kursysql.pl dane do faktury – postaramy się wystawić ją jak najszybciej