Eğitimler
Eğitim takvimi Hakkımızda
işbirliğiyle

işbirliğiyle

Data Science Uzmanlığı Sertifika Programı
Bu program süresince elde edeceğiniz alan bilgisiyle kariyeriniz ve çalıştığınız kurumda fark yaratacaksınız.
EĞİTİM DETAYLARI
Kalan Kontenjan 16 / 25
27 Haziran 2020
Cumartesi - Pazar 10:00 / 17:00
120 Saat (10 Hafta)
İTÜ - Maçka Kampüsü / Beşiktaş Yol tarifi için tıklayınız
KAYIT VE ÖDEME DETAYLARI
Fiyat, ödeme koşulları, eğitim konularının detaylı bilgisi için form doldurun

Tüm sorularınız için : 444 1 476 veya info@mindset.com.tr

Programa şahsi bilgisayarınızla katılmanız gerekmektedir.

Data Science Uzmanlığı Sertifika Programı

444 1 476
EĞİTİM İÇERİĞİ

Genel Bilgi

Teknolojilerin topladığı ve depoladığı verilerin zenginliği, dünya genelinde organizasyonların ve toplumların dönüşüme yönelik avantajlardan yararlanmasını sağlıyor.

 

Data Science Uzmanlığı Sertifika Programı da geleceğin ihtiyaçlarına cevap verebileceğiniz, verileri analiz etmek için strateji geliştirme; verileri analiz için hazırlama; verileri keşfetme, görselleştirme; Python programlama dilini kullanarak verilerle birlikte modeller oluşturma, uygulama ve yazılımlara dağıtarak işlemenize imkan sağlayacak bir programdır.

 

 

Genel Bilgi
Data Science Eğitimine Giriş
Data Science Temelleri I - II

1. Veri & veri bilimi Nedir 

2. Verinin yapısal hale gelmesi ve büyük veri süreci 

3. Veri işlemenin önemi ve gerçek dünyadaki örnekleri 

4. Veri yapıları 

5. Bulut Bilişim Sistemleri ve Bileşenleri 

6. Saklama Yöntemleri 

7. Analiz Yöntemleri 

8. Gerçek Zamanlı Veri Analitiği 

9. Veri Zenginleştirme Süreçleri 

10. Veri Ambarı Tasarımı 

11. Veri Havuzu (Gölü) Tasarımı 

12. Raporlama Sistemleri 

13. Self Servis Yapılar 

14. Veri Görselleştirme 

15. Cognitive Servisler 

16. İlişkisel yapıların sorgulanması

17. ETL Paket tasarımları 

18. Veri görselleştirme örnekleri

 

Şirketler geleceği açısından büyük ve zorlu bir dönüşüm içerisindeler. Dijitalleşmenin getirdiği baskı, yeni yeteneklerin şirkete adaptasyonu ve tüm organizasyonun veri ile yönetilir bir kültür haline getirilmesi çoğu şirket için ana planlardan birisi. En çok yatırım yapılan alanların başında olan veri bilimi sahip olunan veriler üzerinden organizasyonlar için en verimli çözüm yöntemlerinin geliştirileceği departmanlar olmakla birlikte, bu alanda çalışacak kişilerin uçtan uca veri analizi, yönetimi, modellemesi konularında söz sahibi olması beklenmektedir. Temel kavramlar ile başlayacak olan ders içeriğinde veri saklama yöntemleri, bulut bilişim, veri ambarı mimarisi, veri zenginleştirme ve temizleme süreçleri gibi modelleme fazına gelene kadar verinin geçirdiği evrimsel süreçler anlatılmaktadır. Yapısal olmayan veri setleri üzerinde örnek veri zenginleştirme süreçlerinin yanı sıra yapısal veriler üzerinde optimum sorgulama yapılarının oluşturulması ve veri görselleştirilmesi ile birlikte modelleme fazına kadar üzerinden geçilmesi gereken iş adımlarının aktarılması planlanmaktadır.

Keşifsel Veri Analizi ve Veri Ön İşleme

1. Veri görselleştirme

2. Eksik veri tahminleme


3. Aykırı (aşırı) değer tespit etme

4. Normallik testleri

5. İki grup karşılaştırmaları


6. İkiden çok grup karşılaştırması (ANOVA)


7. Regresyon analizi


 

Veri analizleri yapılmadan önce verilerin, uygulanacak analiz için uygun hale getirilmesi gereklidir. Analizler çoğunlukla verilerin sağlaması gereken ön şartlara (varsayımlara) sahiptir. Analiz sonuçları ancak istenen varsayımlar sağlandığında doğru kabul edilip yorumlanabilir. Normallikten sapmalar ve verinin aykırı değerler içermesi analizlerin bozulmasına ve yanlış sonuçlar elde edilmesine neden olabilmektedir. Keşifsel Veri Analizi ve Veri Ön İşleme dersinde verilerin analizler için hazırlanması, temel parametre tahminleri, gruplar arasında fark olup olmama durumunun incelenmesi ve bir değişkenin diğer faktörlerce ne kadar açıklanabildiğini incelemek için uygulanan regresyon analizi konuları tartışılmaktadır

İstatistiksel Analiz ve İş Uygulamaları 

1.Sınıflandırma problemi

2.Kümeleme problemi

3.Boyut indirgeme problemi

 

İşletmelerde (veri analizlerinde) bir değişkeni açıklayabilmek temel bir problemdir. Çeşitli faktörlerin değişken üzerindeki etkilerinin analiz edilmesine regresyon analiz denmektedir. Değişken sayısal bir değişken ise klasik regresyon analizi kullanılmaktadır. Değişken sınıfsal bir değişken ise problem sınıf tahminine dönüşmekte ve klasik regresyondan faklı yöntemler (Lojistik, Diskriminant, Karar Ağaçları vb) tercih edilmektedir. Veri analizlerinde bir diğer önemli problem verilerin benzerliklerine göre kümelenmesidir. Bunun için Kümeleme analizi teknikleri kullanılmaktadır. Boyut indirgeme veya değişken sayısının azaltılmasına işletme (ekonomi, sosyal bilimler vb) problemlerinde sıklıkla ihtiyaç duyulmaktadır. İstatistiksel Analiz ve İş Uygulamaları dersinde yukarıda bahsedilen problem tiplerinin çözümü için Lojistik Regresyon, Kümeleme Analizi ve Faktör Analizi yöntemleri tartışılmaktadır.

Veri İşlemede Algoritmik Temeller

1. Algoritma kavramına giriş

2. Yer ve zaman karmaşıklığı analizi

3. Algoritma tasarımında temel yaklaşımlar

4. Büyük veri işlemede “algoritma mühendisliği” kavramı

5. Başlıca arama, tarama, sıralama, indeksleme algoritmaları

6. Hafıza hiyerarşisi, iç ve dış hafıza algoritmalarının karşılaştırılması

7. Yaklaşık çözümler ve rastgeleliğe dayalı kolaylıklar

8. Akan veri işlemede zorluklar ve yaklaşımlar

9. Veri sıkıştırma ve sıkıştırılmış veri üzerinde direk işleme algoritmaları

 

Her geçen gün büyüyen bir veri seti üzerinde ölçeklenebilir çözümler geliştirilebilmesi için temel algoritma kavramlarının ve yaklaşımlarının iyi anlaşılması ve özümsenmesi gereklidir. Bu amaçla hesaplama bilimindeki temel algoritma tasarım ve analiz kabiliyetlerinin anlaşılması önem arz etmektedir. Temel kavramlar ile başlayacak olan ders içeriği, bir algoritmanın karmaşıklığının nasıl hesaplanacağına dair metodun irdelenmesi ile devam etmektedir. Daha sonra büyük veri üzerinde ortaya çıkan problemlere yönelik çözümler üzerine yoğunlaşılmaktadır. Teorik olarak zor olduğu bilinen problemlere yönelik yaklaşık çözümlerin üretilmesi, bu amaçla rastgeleliğin kullanılması, hafıza birimleri arasındaki hiyerarşinin performans üzerinde etkileri, akan veri üzerinde temel işlemler gibi konular üzerinde giriş seviyesinde bilgiler ve örnekler sunulmaktadır. Son kısımda büyük veri ile mücadelede önerilen yeni metodolojilerden olan sıkıştırılmış veri üzerinde işlem yapma üzerinde durulmaktadır.

Python Ortam Kurulumu ve Temelleri

1. Jupyter-notebook kurulumu ve kullanımı

2. IPython terminali kullanımı ve özellikleri

3. Python veri yapıları (String,List,Dictionary,Numeric)

4. Liste operasyonları Dictionary (Sözlük) Kullanımı

5. IF conditionals (eğer koşulları)

6. For ve While Döngüleri

7. Fonksiyonlar

8. List Comprehensions

9. String fonksiyonları

10. Regular Expressions (Düzenli ifadeler)

11. Dosya açma kapama

12. Class (sınıf) kullanımı

13. Tarih ve zaman modülü OS (operating system) modülü ile dosya operasyonları

14. Numpy kütüphanesi tanıtımı

 

Eğitim, Python programını çalıştırmak için gerekli olan programlardan biri olan jupyter- notebook programını kurulumu ve nasıl çalıştırılacağı ile başlamaktadır. Daha sonra Ipython interaktif terminalini tanıtımı ve kullanımı gösterilecektir. Bunların ardından temel python veri yapıları ve fonksiyonları anlatılacaktır. Son aşamada ise çok sık kullanılan python modülleri tanıtılıp Numpy kütüphanesine giriş yapılacaktır

Pandas ile Veri İşleme  

1. PANDAS temel veri yapıları (seri ve dataframe)

2. Seri ve DataFrame’ler üzerinde indeksleme, seçme ve filtreleme uygulamaları

3. Case study: Chipotle sipariş veri seti analizleri

4. DataFrame yapılarına fonksiyon uygulama (apply ve map)

5. Veri aritmetiği ve hizalandırması

6. DataFrame ile Seri’ler arasında operasyonlar

7. Betimleyici istatistik (descriptive statistics)

8. Eksik verileri yönetme teknikleri

9. Hiyerarşik indeksleme

10. Case study: Norveç yeni otomobil satış verisi analizleri

11. PANDAS Veri okuma ve yazma fonksiyonları

12. Veritabanı stili veri birleştirme teknikleri

13. DataFrame’ler üzerine dizi (string) uygulamaları

14. Veri birleştirme ve gruplandırması (aggregation and groupby)

15. Pivot tablo oluşturma

16. Case study: San Francisco Devlet memur ücretleri veri seti analizleri

17. Zaman serileri

18. Saat dilimi yönetimi

19. Yeniden örnekleme (Resampling) uygulamaları

20. Case study: İstanbul’un yüz yıllık sıcaklık verisi üzerinde analizler

21. Zaman serileri grafiklendirmesi

22. Case study: Saatlik hava durumu verisi üzerinde haftalık ve günlük analizler

23. Indeks yeniden şekillendirme, pivot ve melt uygulamaları

24. Case study: “311 service requests from NYC open data” verisi üzerinde uygulamalar

25. Case Study: Olist E-ticaret satış verisi üzerinde analizler

 

Eğitim, katılımcıları yapılandırılmış veriler üzerinde kullanılan en temel python kütüphanesi olan PANDAS kütüphanesi uzmanlığı vermeyi hedeflemektedir. Veri analistleri ile yapılan anketlerde veri temizliği, dönüşümü ve entegrasyonu gibi işlemlerin vakitlerinin %30-40 civarının aldığı görülmüştür. PANDAS kütüphanesi bahsi geçen veri işleme tekniklerini en kolay ve hızlı bir şekilde gerçekleştirmeyi sağlayan çok temel bir python kütüphanesidir. Akademiden iş dünyasına kadar çok farklı alanlarda kullanılmaktadır. Bu eğitim kapsamında PANDAS kütüphanesindeki temel veri yapıları ve önemli fonksiyonlar tanıtılıp güncel veri setleri üzerinde analizler yapılacaktır.

 

Matematiksel Hesaplama (NumPy - SciPy)

1. Numpy kütüphanesine giriş, vektörel ve matrissel hesaplamalar

2. Lineer Sistemlerin Çözümü (Case Study: Optimizasyon)

3. Lineer Olmayan Sistemlerin Çözümü (Case Study: Curve Fitting)

4. Sembolik Hesaplama (Case Study: Integral Hesaplama)

5. Resim İşleme(Case Study: Resimler üzerine efektler ekleme)

6. İnterpolasyon (Case Study: Zaman serisi interpolasyonu ve Resim Interpolasyonu)

7. İstatiksel Hesaplamalar (Case Study: Hipotez Testleri)

8. Sparse Matrisler (Case Study: Tavsiye Sistemleri)

9. Fourier Dönüşümleri (Case Study: Zaman Serisini Parçalara Ayırma)

 

Numpy matrissel vektörel işlemlerin hızlı ve efektif bir şekilde gerçekleştiren çoğunlukla C programlama dilinde yazılmış bir kütüphanedir. C dilinde yazılıdğı için vektörler üzerine yapcağımız operasyonları çok hızlı bir şekilde yapabilmektedir. Scipy kütüphanesi Numpy kütüphanesinin üzerine oturtulmuş ve çoğu bilimsel ve mühendsilik hespalarını kolayaca yapmamıza olanak sağlayan bir kütüphanedir. Bu derste numpy ve scipy kütüphanelerini örnekler üzerinden öğretilmesi hedeflenmektedir.

BeautifulSoup ile Web Scraping

1.Web Scraping Nedir ve Neden Scraping kullanılır?

2.Web Scraping'in Zorlukları

3.Veri Kaynağının Kontrol Edilmesi

4.Web Sitesinin Keşfedilmesi

5. URL'lerdeki Bilgilerin Çözümlenmesi

6. Geliştirici Araçlarını Kullanarak Sitelerini İncelenmesi

7. Sayfadan HTML İçeriğini nasıl alırız?

8. Statik Web Siteleri

9. Gizli Web Siteleri

10. Dinamik Web Siteleri

11. BeautifulSoup ile HTML Kodu Ayrıştırma

12. Öğeleri ID’ye Göre Bulma

13. HTML Sınıf Adına Göre Öğeleri Bulma

14. HTML Öğelerinden Metin Çıkarma

15. Sınıf Adı ve Metin İçeriğine Göre Öğeleri Bulma

16. HTML Öğelerinden Öznitelikleri Ayıkla

 

Case: yenibiris.com insan kaynakları sitesi üzerinden scraping çalışması

Case: İş Arama Aracını Oluşturma

 

İnternet ortamında yer alan veri, herhangi bir çalışma veya araştırma için en kısa sürede ulaşılabilecek ve kullanılabilecek zengin bir kaynaktır. Dağınık bir şekilde yer alan bu verileri toplamak için web scraping konusunda ilgili araçlara hakim ve aynı zamanda bilgi sahibi olmanız gerekir. Burada BeautifulSoup bu iş için python temelli en kolay çözümlerden biridir. Python ve HTML konusundaki temel bilgilerinizle, BeautifulSoup ile web scraping konusunda uygulamalı ve hedefe yönelik bir eğitim alacaksınız.

Veri Tabanı Yönetimi ve Büyük Veri

1. İlişkisel Veritabanı Yönetim Sistemlerinin temelleri anlatılması

2. SQL Kodlama ve Örnek Uygulamalar yapılması

3. NoSQL veri Tabanlarının tanıtılması

       A. Key-Value Database

       B.Wide Column Database

       C.Document Database

       D.Graph Database

4. Örnekler ile NOSQL veritabanlarının kullanımına dair bilgilerin verilmesi

5. Popüler NoSQL veritabanları üzerinde kodlama örnekleri yapılması

 

İş analitiği uygulamalarının temeli verilerin depolanması ve gerektiğine işlenerek analize hazır hale getirilmesine dayanmaktadır. Klasik olarak işletmelerde İlişkisel veritabanları (SQL) kullanılmaktayken son dönemde gelişen büyük veri kavramı içerisinden NoSQL veritabanları da gündeme gelmiştir. Bu ders kapsamında temel veritabanı yönetim sistemi bilgileri, SQL kodlama ve örnek uygulamalar yapılmakta, ayrıca farklı NoSQL veritabanları örnek uygulamalar ile tanıtılmaktadır.

Büyük Veri Teknolojileri ve Uygulamaları

1. Büyük veri ve teknolojilerinin anlaşılması ve kullanım şekli

2. Büyük veri platformlarının gelişim süreci ve çözüm önerilerinin anlaşılması

3. Büyük veri teknolojileri ve uygulamaları arasındaki farklılıklar

4. Büyük veri platformlarının çeşitliliği, iş-modeli ve iş-zekası özelinde farklı kullanım metotları

5. Büyük veri teknolojilerinin dağınık ve yapılandırılmış veri yapıları üzerinden anlaşılması, uygulamalar ve buna bağlı çözüm önerileri

6. Hadoop HDFS ve MapReduce çözüm yapısının anlaşılması, Apache Spark ve Amazon Web Service (AWS) platformlarının farklılıkları ve başlangıç uygulamaları

7. Servis-olarak-Hadoop ve Servis-olarak-Bulut çözümlerinin anlaşılması ve kullanım şekilleri Hadoop, AWS ve Apache Spark üzerinden temel uygulamaların yapılması

8. Güncel büyük veri uygulamalarının gösterilmesi ve sonuçların tartışılması

 

Büyük veri teknolojileri ve uygulamaları dersinde, büyük veri ve buna bağlı oluşturulan teknolojik çözümlerin anlaşılması ve kullanım şekli tartışılarak, sistemde güncel kullanılmakta olan büyük veri platformların gelişim süreçleri ve çözüm önerileri gösterilecektir. Bu çerçevede büyük veri teknolojileri ve uygulamaları arasında farklılıklar irdelenecek, büyük veri incelemelerinde kullanılan platformların çeşitliliği, iş-modeli ve iş-zekâsı özelinde farklı kullanım metotları gösterilecektir. Bu teknolojilerin günümüzde çeşitlilik gösteren kaynaklardan toplanan dağınık ve yapılandırılmış veri yapıları üzerinden bir araya getirilerek anlaşılması, uygulamaları ve buna bağlı çözüm önerileri tartışılacaktır. Hadoop HDFS ve MapReduce kurgusu temel anlamda tartışılarak, Apache Spark ve Amazon Web Servisi (AWS) platformları ile karşılaştırılmalı gösterilecektir. Servis-olarak-Hadoop ve Servis-olarak-Bulut çözümlerinin işletmeler özelinde kullanım şekilleri güncel örnekler ile tartışılarak, Hadoop, AWS ve Apache Spark üzerinden ilk temel uygulamalar gösterilecektir. Türkiye’de ve dünyada yer alan büyük veri uygulamalarının ve teknolojilerinin kullanım şekli gösterilerek elde edilen sonuçlar geniş bir bakış açısı ile tartışılacaktır.

Yapay Zeka ve Makine Öğrenmesi

1. Yapay zeka ve makine öğrenmesinin temel kavramlarının anlaşılması

2. Yapay zeka ve makine öğrenmesi algoritmalarının gelişim süreci ve uygulamalarının anlaşılması

3. Makine öğrenimi modelleme metodolojisi ve algoritma seçiminin öneminin anlaşılması

4. Makine öğrenmesi algoritmalarının arasındaki farklılıkların incelenmesi

5. Temel supervised/eğiticili makine öğrenmesi algoritmalarının çalışma prensipleri anlaşılması ve R programlama dili kullanılarak pratik uygulamaların yapılması

      A. Uzaklık Temelli yöntemler (K-Nearest-Neighbor)

      B. Karar Ağacı algoritmaları (Decision Tree)

      C. Olasılık temelli yöntemler (Naïve Bayes)

      D. Support Vector Machines(SVM) e. Yapay Sinir Ağları (Artificial Neural Networks)

 

Yapay zeka ve Makine öğrenimi dersinde, yapay zeka ve makine öğrenmesinin temel kavramlarının anlaşılması, makine öğrenmesi algoritmalarının gelişim süreci ve uygulamalarının anlaşılması, makine öğrenimi modelleme metodolojileri ve algoritma seçiminin öneminin anlaşılması konuları tartışılacaktır. Makine öğrenmesi algoritmalarının arasındaki farklılıklara değinilip temel supervised/eğiticili makine öğrenmesi algoritmalarının çalışma prensipleri detaylıca incelenecek ve Python programlama dili kullanılarak pratik uygulamalar yapılacaktır. Bu kapsamda, temel eğiticili makine öğrenmesi algoritmalarından Uzaklık Temelli (Nearest-Neighbor) yöntemler, Karar Ağacı yöntemleri(Decision Tree), Olasılık temelli yöntemler (Naïve Bayes), Support Vector Machines(SVM)ve Yapay Sinir Ağları (Artificial Neural Networks) algoritmaları irdelenecektir.

Scikit-Learn ile Makine Öğrenmesi

1. Makine Öğrenmesi Yaklaşımı

2. Nasıl Çalışır Denetimli (Supervised) Öğrenme Modeli Konuları

3. Scikit-Bilgi Denetimli (Supervised)

4. Öğrenme Modelleri - Doğrusal Regresyon

5. Denetimli(Supervised) Öğrenme Modelleri - Lojistik Regresyon

6. Denetimsiz (Unsupervised)

7. Öğrenme Modelleri

8. Pipeline

9. Model Kalıcılık ve Değerlendirme

10. Örnek Uygulama: Çalışanlar için Bilgisayarda Erişim Gereksinimleri Tespiti 

 

Scikit-learn, çok sayıda denetimli ve denetimsiz öğrenme algoritması sunar. Bu anlamda açık, anlaşılır ve en basit Machine Learning kütüphanesidir. Temel API tasarımı kolay, güçlü ve araştırma çabaları için esnekliği koruma etrafında dönmektedir. Bu sağlamlık, araştırma aşamasından üretim uygulamalarına kadar her uçtan uca Machine Learning projesinde kullanım için mükemmeldir. Scikit birkaç yaygın veri ve matematik kütüphanesi üzerine inşa edilmiştir. Böyle bir tasarım, kütüphaneler arasında entegrasyonu kolaylaştırır. Numpy dizilerini ve Pandas veri setlerini doğrudan Scikit'in Machine Learning algoritmasına geçirebilirsiniz.

Derin Öğrenme

1. Yapay Sinir Ağlarına Giriş (Case Study: Ev Fiyatlarının Tahmini, Chrun Analizi)

2. Derin Öğrenmeye Giriş (Case Study: Ev Fiyatlarının Tahmini, Chrun Analizi)

3. Derin Öğrenme Metodları

4. Konvolusyon Sinir Ağları (CNN)(Case Study: Rakam resimlerini Sınıflandırma)

5. Zaman Serileri için Derin Öğrenme (LSTM) (Case Study: Zaman serisi tahmini)

6. Autoencoder (Case Study: Gürültü Önleme)

7. Transfer Learning (Case Study: Resim Sınıfladırması)

 

Derin Öğrenme metodları son zamanlarda oldukça popular olan bir makine öğrenmesi algoritmasıdır. Hesaplama ve depolam gücünün artmasıyla 1950 lerde ortaya çıkan Yapay Sinir Ağlarının daha ileri bir versiyonudur. Derin Öğrenme metodları ile beraber çok daha kompleks örüntüler daha efektif bir şekilde ortaya çıkarılablmektedir. Bu derste farklı görevler için geliştirlmiş olan Derin Öğrenme Mimarilerini örnekleriyle berarber öğretilmesi hedeflenmektedir.

Doğal Dil İşleme ( NLP ) ve Text Analytics

1. Metin madenciliği (text mining) kavramına giriş

2. Metin madenciliği için bilgi getirimi (Information Retrieval ) temelleri

3. Metin arama/tarama/indeksleme veri yapıları ve algoritmaları

4. Metin gösteriminin temel metodları

5. Doğal dil işlemeye temelleri, morfolojik/sentaktik/semantik seviyeler

6. Metin kümeleme (text clustering) amaçlı öznitelik seçimi ve kümeleme algoritmaları

7. Metin sınıflandırma (text classification) amaçlı öznitelik seçimi ve sınıflandırma algoritmaları

8. Metin benzerliği ve eşleştirme algoritmaları Çeşitli metin madenciliği uygulamalarından (use case) örnekler

 

Metinsel bilgiler üzerinden bilgi çıkarımı ve analizi veri bilimi içerisinde önemli bir başlık olarak belirmektedir.Dijital kanallardan yayılan metin tabanlı mesajların işlenmesi ve çok sayıda dokümandan oluşan kümelerden yararlı bilgi çıkarımı gibi konular metin madenciliğinin önemli motivasyonlarını oluşturmaktadır. Metin madenciliğini diğer veri madenciliğinden ayıran hususların incelenmesi ve genel kapsamının ortaya konulması ile başlayan program, bilgi getirimi (information retrieval) temel kapsamının tanıtımı ile devam etmektedir. Büyük hacimli metinsel bilgilerin üzerinde efektif arama/tarama/indeksleme ve örüntü keşfine yönelik öne çıkan algoritmalar ve veri yapılarının tanıtımı sonrasında, metin gösterimi konusunda genellikle tercih edilen “kelime dağarcığı” (bag of words) modeli, ve bu modelin temel problemi olan yüksek boyutluluk irdelenmekte, olası yaklaşımlar üzerine bilgi sağlanması amaçlanmaktadır. Doğal dil işleme metin madenciliğinin temel iki konusundan biri olup, program dahilinde bu konunun temel kapsamı tanıtılarak, zorlukları ve sağladığı avantajlar üzerinde durulmaktadır. Türkçe için mevcut doğal dil işleme kaynaklarının gösterimi de bu kapsamda sunulmaktadır.

Metin madenciliğinin en önemli noktalarından biri, öznitelik çıkarımı olup, bu konu için kümeleme ve sınıflandırma dahilinde olası metodların irdelenmesi, ve ilgili algoritmaların tanıtılması gerçekleştirilmekte, sonrasında endüstriyel uygulamalarda ihtiyaç duyulan metin benzerliği (textual similarity) üzerinde bilgi sunulmaktadır. Metin madenciliğinin kullanıldığı örnek senaryolar üzerinde tartışmalar ile program nihayetlenmektedir

Matplotlib Kullanarak Python'da Veri Görselleştirme

1. Görselleştirilecek veriye uygun figure/grafik çeşitlerinin seçilmesi

2. Matplotlib genel konseptleri ve pratikte tercih edilen uygulamalar

3. PyPlot modülü ve başlıca grafiklerin/figürlerin oluşturulması

       A. Çizgi grafikleri (Line Plots)

       B. Saçılım Diagramları (Scatter Plots)

       C. Histogramlar

       D. Sütun (Bar) ve pasta (Pie) Grafikleri

       E. Logaritmik Diagramlar

       F. 3 boyutlu diagramlar (Surface Plots)

4. Aynı figür içerisinde birden fazla grafikle çalışmak

5. Oluşturulan figurlerin özelleştirilmesi

       A. Grafiklerin işaret ve renklerinin değiştirilmesi

       B. Başlık, alt başlık oluşturma,

       C. Alt yazı (Legend) oluşturma

       D. Renk haritasi (colormap) ile çalışma

6. Matplotlib tabanlı diğer figür oluşturma araçlarının tanıtımı

7. Plotly ile interaktif ve oynatılabilir figür oluşturma

 

Kullanılacak Veri Seti:
Dünya Bankası Gayri Safi Milli Hasıla (GDP) Veri Seti

 

Veri görselleştirme gerek keşifsel veri analizi yapmada, gerekse elde ettiğimiz sonuçları karşımızdakilere aktarmada çok etkili bir yöntem olarak karşımıza çıkmaktadır. Ham veri üzerinde gözden kaçabilecek trendleri, paternleri ve ikili ilişkileri görsel yöntemler sayesinde sağlıklı bir şekilde gözlemleyebilmekte ve analiz edebilmekteyiz. Bu ders içerisinde veri işleme hususunda Python’utercih edenlerin en sık kullandığı kütüphanelerden olan Matplotlib ile karmaşık verilerin görselleştimesi üzerine çalışmalar yapılacaktır. Dersin giriş bölümünde, veriye uygun grafik(ler)in seçilmesi ve figür terminolojisi üzerinde durulacaktır. Daha sonra sıklıkla kullanılan grafik/diagramların Matplotlib kullanılarak oluşturulması ve bu grafiklerin özelleştirilmesi için kullanılan araçlar uygulamalı olarak işlenecektir. Son olarak Matplotlib tabanlı bir başka kütüphane olan plotly kullanılarak daha interaktif figürler oluşturma üzerinde durulacaktır.

Veri odaklı kuruluşların geleceğini şekillendirin
Veri yeni petrol
Forbes: 150 trilyon gigabayttan fazla veri, 2025 yılına kadar analize ihtiyaç duyacak.
2020 verilerine göre
Glassdoor tarafından açıklanan verilere göre Data Scientist ortalama maaşı 120.000 USD / YIL
2020 verilerine göre
Glassdoor tarafından açıklanan verilere göre Data Scientist ortalama maaşı 120.000 USD / YIL
SIKÇA SORULAN SORULAR
EĞİTİM PROGRAMI İLE İLGİLİ BİZE SORULMUŞ SORULAR VE CEVAPLARI
Data Science eğitimini neden almalıyım ?

 

Data Science, içinde birçok uzmanlık gerektiren disiplini barındırmaktadır. Önde gelen global şirketler, data yönetimi ile ilgili farklı yeteneklere sahip uzmanlarla çalışıyor.

Veri yönetimi konusu şirketlerin pazarlama, müşteri deneyimi, iş geliştirme, yazılım geliştirme, iş zekası ve diğer faaliyetlerinde önemli rol oynuyor.

 

Hem Türkiye'de hem de global çapta uzman açığı sürekli artmakta. Gartner tarafından açıklanan birçok raporda Data Science kavramının AI ve Big Data kavramlarıyla beraber sürekli yükselen bir trend izlediğini görüyoruz.

Bu da geleceğin profesyonel dünyasında yer almak için doğru bir yolda olduğunuzu gösteriyor.

Ayrıca Mindset Institute'in İstanbul Teknik Üniversitesi ile yapmış olduğu işbirliğiyle içeriği ve kadrosu ile alanında tek olan eğitim programı İTÜ deneyimi ve güvencesiyle sektörde büyük kabul görecektir.

Data Scientist hangi işleri yapar ?

Yapılandırılmamış ve yapılandırılmış verilerle ilgilenen Data Scientist, veri temizleme, hazırlama ve analiz ile ilgili her şeyi içeren görevleri yerine getirmek ve takip etmekle ilgilidir.

Veri Bilimi, istatistik, matematik, programlama, problem çözme, verileri ustaca bir şekilde yakalama, olaylara farklı şekilde bakabilme ve verileri temizleme, hazırlama ve hizalama işlerini bir fiil yürütür.

Basit bir ifadeyle, verilerden içgörü ve bilgi elde etmeye çalışan kişidir.

Programın hedefi nedir ?

Program süresince bir Data Scientist'in iş tanımı içinde geçen aşağıdaki 5 farklı yeteneğin geliştirilmesi amaçlanmıştır.

Capture, (data acquisition, data entry, signal reception, data extraction);
Maintain (data warehousing, data cleansing, data staging, data processing, data architecture);
Process (data mining, clustering/classification, data modeling, data summarization);
Analyze (exploratory/confirmatory, predictive analysis, regression, text mining, qualitative analysis);
Communicate (data reporting, data visualization, business intelligence, decision making)

Data Science uzmanlık eğitimi kimler için uygundur ?

Lisans Mezunu,

Temel Matematik ve İstatistik bilgisine sahip,

Temel programlama bilgisine sahip,

Analiz ve iç görü kabiliyeti olan,

Mühendislik, İstatistik, Matematik, IT alanı mezunu kişilerin katılımı önceliklidir.

Öğreneceğim bilgiler ve uygulamalar yurtdışında kariyer olanağı sağlar mı ?

Programda öğreneceğiniz bilgiler ve gerçekleştireceğiniz uygulamalar Data Science alanında global standartlardadır. Dev teknoloji şirketlerinin kullandıkları programlama dilleri ve teknik uygulamalar dikkate alınarak gerçekleştirilen bu programda elde edeceğiniz bilgiler size ülkemiz dışındaki iş fırsatlarını da değerlendirebilme imkanı sunacaktır. 

 

Programda uygulama ve proje yapılıyor mu?

Eğitimin tamamı uygulamadır.Her eğitim konusunda bazı temel kavramların paylaşılmasından sonra katılımcılara verilecek yönlendirmelerle uygulama aşamasına geçilecektir. 

Program sonunda eğitim çıktısının değerlendirilmesi amaçlı proje uygulaması yapılacaktır. Gerçekleştirdiğiniz proje değerlendirilerek, sertifikalandırılacaktır. 

Döküman paylaşımı yapılacak mı ?

Eğitiminizin başladığı hafta itibariyle ilgili materyal paylaşımları gerçekleştirilecektir. 

Eğitime katılmadan önce hangi hazırlıkları yapmam gerekir?

Python ile programlama bilginizi geliştirmeniz faydalı olacaktır.

Hangi model bilgisayar kullanmalıyım ?

Programa şahsi bilgisayarınızla katılmanız gerekmektedir.Eğitim saatleri dışında da yapmanız gereken uygulamalar konusunda yönlendirmeler yapılacaktır. Bilgisayar modeli zorunluluğu yoktur.

Eğitim sonunda sertifika alacak mıyım ?
Devam zorunluluğunu yerine getiren katılımcılar sertifika almaya hak kazanacaktır. Eğitim sonunda gerçekleştirilen proje çalışmasında başarılı sayılan katılımcılar İstanbul Teknik Üniversitesi Rektörlüğü onaylı uzmanlık sertifikası almaya hak kazanacaktır. Proje çalışmasına katılmayan veya başarılı sayılmayan katılımcılar İstanbul Teknik Üniversitesi Sürekli Eğitim Merkezi onaylı katılım sertifikası almaya hak kazanacaktır. Programda %90 devam koşulu bulunmaktadır.
Ödeme ve kayıt koşulları nelerdir ?

Kayıt işlemlerinizi online sistem üzerinden tamamlayabilirsiniz.

Üyelik oluşturarak giriş yaptıktan sonra farklı ödeme seçeneklerinden sizin için en uygun olanı seçebilir ve satınalma işleminizi tamamlayabilirsiniz.

Satınalma işlemini tamamladığınızda kaydınız gerçekleşir ve tarafınıza gerekli evraklarla ilgili bilgilendirme maili gönderilir.Online ödeme sistemi 7/24 hizmet vermektedir.

Eğitim kurumsal olarak bize özel planlanabilir mi ?

Eğitim programı, alanı itibariyle kurumların farklı ihtiyaçlarına göre yeniden tasarlanarak uygulanmaktadır.Ekibinizin mevcut çalışmaları belirlediğiniz gelişim hedefine yönelik revizeler yapılarak uygulanmaktadır. 

Kurumunuza yönelik talebi iletmek için aşağıda yer alan kurumsal eğitim başvurusu formunu doldurabilir, sizin için en uygun teklifi alabilirsiniz. 

KURUMSAL BAŞVURU
Kurumsal Eğitim Talebi
Bu eğitimi kurumsal olarak planla ve uygula Mindset Institute kalitesi ve denetimi altında takımın veya şirketin için eğitim planla. Yeni beceriler kazanmanıza, çalışanlarınızın gelişimini yönetmenize ve işgücünüzü eğitmenize nasıl yardımcı olabiliriz?
SONRAKİ DÖNEMLER

SONRAKİ DÖNEMLER

Eğitim bütçenizi ve diğer detayları düzenlemek için diğer dönemlerin bilgisine ihtiyaç duyabileceğinizi düşündüğümüzden dolayı bu bilgileri sizinle paylaşıyoruz. Aşağıda sonraki dönemlerin başlangıç tarihlerini görebilirisiniz.
27 Haziran 2020
Data Science Uzmanlığı Sertifika Programı
Kontenjan : 25 / 9
25 TEMMUZ 2020
Data Science Uzmanlığı Sertifika Programı
Kontenjan : 25 / 5
22 AĞUSTOS 2020
Data Science Uzmanlığı Sertifika Programı
Kontenjan : 25 / 5
12 EYLÜL 2020
Data Science Uzmanlığı Sertifika Programı
Kontenjan : 25 / 5
26 EYLÜL 2020
Data Science Uzmanlığı Sertifika Programı
Kontenjan : 25 / 5