Jump to content
Forumu Destekleyenlere Katılın ×
Paticik Forumları
2000 lerden beri faal olan, çok şukela bir paylaşım platformuyuz. Hoşgeldiniz.

Veri madenciliğine nereden başlamalı?


JeanValjean

Öne çıkan mesajlar

@aquila, abi her zamanki gibi noktayı koymuşun ama ben çok doluyum bu konuda. O yüzden yazıp yazıp siliyorum.
@senko, istisnalar vardır tabii ki. Ben TR'de sabancı, özyeğin, istanbul ticaret üniversitesini biliyorum. Firmamın getirdiği avantaj sayesinde birçok hoca/YL öğrencisi ıvır zıvırla konuşma fırsatım oldu. Konuştuğum bilimum insan da benzer şeyler söylüyordu/görüyordum zaten. Bu nedenle ben söylediğimin baya arkasındayım. İstisnai olarak birşeyler öğreniyorsundur elbet, ama bu YL öncesi öğrenmeyi atladığın içindir, bence.. Agree to disagree.
Link to comment
Sosyal ağlarda paylaş

senko said:

Hatta bi adım ileri götüreyim, bu deep learning'in popülerliği pis batacak ilerde. Hoş iki CNN projesi yapan kediyle köpeği training set'i ile test eden de DS biliyorum diyor.
Piyasa bi garip.



Redditte bugün buna değinen bir başlık vardı (link:https://www.reddit.com/r/MachineLearning/comments/9p9ccz/d_ml_is_losing_some_of_its_luster_for_me_how_do/). Problem tüm dünyada aynı.
Link to comment
Sosyal ağlarda paylaş

Phoenixlin said:

Redditte bugün buna değinen bir başlık vardı (link:https://www.reddit.com/r/MachineLearning/comments/9p9ccz/d_ml_is_losing_some_of_its_luster_for_me_how_do/). Problem tüm dünyada aynı.


Tam gazımı almalık konuymuş, çok teşekkür ederim paylaştığın için.
Link to comment
Sosyal ağlarda paylaş

calculus 2 bittikten sonra buna da bakicam bi ara.

yalniz CS de bir cok seyde oldugu gibi, gunumuzde ML dalinda bircok sey abstracted away olmus durumda.

yani su firlattigin kitaptaki formulleri ve implementasyonlari, kendin framework (keras veya tensorflow gibi) yazmayacagin surece, kanittira kanittira ogrenmene gerek yok. zaten eminim %95 inden fazlasi implement edilmistir.

EX: https://github.com/tensorflow/probability

olay yine hangi algoritmayi hangi sira ile kullanmayi bilmeye donuyo. temel bilgi sart.

yani daha basit ornek olarak pointerlari, linked list leri, veya tree traversal bilmek iyi ama, bunlari hergun gunluk hayatta kullanmiyoruz en nihayetinde, nerde kullanildildigini biliyoruz, bir performans durumu ortaya ciktiginda hangi data structure'a basvuracagimizi biliyoruz, kimse sifirdan quick sort yazmiyo.
Link to comment
Sosyal ağlarda paylaş

reyou said:

yani su firlattigin kitaptaki formulleri ve implementasyonlari, kendin framework (keras veya tensorflow gibi) yazmayacagin surece, kanittira kanittira ogrenmene gerek yok. zaten eminim %95 inden fazlasi implement edilmistir.
EX: https://github.com/tensorflow/probability

olay yine hangi algoritmayi hangi sira ile kullanmayi bilmeye donuyo. temel bilgi sart.


Şu o kadar yanlış ama ML öğrenmeye çalışan davarların (sen öylesin demiyorum) %95'inin yaptığı bir hata ki sırf bu yüzden ortalık saçma salak bloglar, saçma salak videolar ve saçma salak makalelerle dolu.

Bir şeyin implement edilmiş olması onu kanırta kanırta öğrenmemek için bir sebep değil. Yarın o implement edilmiş şeyleri kullanıp, %1 accuracy performansı aldığında, geometrik şekilleri olması gerektiği yere sokmaya çalışan bebek mi olmak istersin yoksa "x, y, z sebeplerinden dolayı böyle oldu a, b, c uygularsam çözülür" demek mi?

Çok basit örneğiyle, PyTorch'la türkçe/ingilizce için şimdilik text categorization modelleri üretmeye çalışıyorum (isteyen olursa atarım github'ımı) ve normal şartlar da düzgün çalışması gereken kod sadece "gradient clipping" yaptığım için hunharca kötü çalıştı ilk seferde. Onu oraya niye koyduğumu biliyordum, ne yaptığını biliyordum ve kötü sonucun sebebinin daha ilk iterasyon bitmeden o olduğunu biliyordum. Oysa oraya ezbere layerlar, özellikler koysam heralde hala kafayı yerdim problem nerde diye.

reyou said:

yani daha basit ornek olarak pointerlari, linked list leri, veya tree traversal bilmek iyi ama, bunlari hergun gunluk hayatta kullanmiyoruz en nihayetinde, nerde kullanildildigini biliyoruz, bir performans durumu ortaya ciktiginda hangi data structure'a basvuracagimizi biliyoruz, kimse sifirdan quick sort yazmiyo.


Basic data structurelarla ML/DL'in altındaki matematiği aynı yere koymayın. Diğer türlü random bir blog'a girip, kerasta yazılmış bir algoritma bulup, üzerine kendi datasetin için "model.fit()" yazıp, ML öğrenmiş gibi oluyor insanlar (ki aslında ortada koca bir hiç var). Sonra sonuçlar kötü gelince de başka bir blogdan başka bir model bulma derdine düşüyorlar. Ha, istedikleri sonucu alana kadar datasetlerine ve modellerine tecavüz edebilirler tabi; ama altyapıyı sağlam tutup, dataset ve modelle romantik bir ilişki içinde olmak daha huzulur ve sonuca götüren bir yoldur.
Link to comment
Sosyal ağlarda paylaş

Milyar tane ML uygulamasi alani var her biri icin gereksiz.

Ben app im de gorme engelliker icin kameradan el yazisi okuyucu yapicam diyelim.
3rd party kullanacagima supervised algoritmalar ile basliyorum. Hangisini kullanacagimi bildikten sonra niye tum matematik cografyasini hatim edeyim? Belki benim ML e ilgim, uygulama alanim o kadar?

En iyisini, en ulasilmasini, siri den bile daha akilli olanini yapmak icin mi? Sanmiyorum.

Data structures vs ML demedim, sen her Node.js ogrenecek adama git de once tum algorithms and data structures yapilarini ogren dersen komik olur dedim. Bilmesi tabiki iyi olur ama her yeni baslayan insana al su kitabi anla yoksa git otede oyna yaklasimi cok milliyetci.

Herkes havada sahibini taniyip takip eden drone yapmak icin girmiyor bu ise.
Link to comment
Sosyal ağlarda paylaş

Hobi olarak kullanacaklara lafim yok ama bu isi profesyonel yapicam diyen adama once data structures derim ben :)

Ml konusunda cok atip tutmayayim asil calistigim alan degil benim de. Ama kendi merakin icin veya hobi icin yapiyorsan aynen keras.fit yeticektir belki sana.

Ama gun gelirde birisi niye burda gradient descent kullandin da bfgs kullanmadin dediginde ne diyeceksin, veya belki de problem başka bir quasi newton optimizasyonu kullanmani gerektiriyordu.

SVM i ezbere kullanmak mumkun, baska bir ornek vereyim, weka da knime da parametreleri giriyorsun oluyor. Ama duality ve lagrange bilmeden neyin ters gittini anlayabilecek misin

Bir konuda da sana katiliyorum ama ben sadece data streaming tarafinda isime yaradigini dusundukce kullanıyorum, asil calisma alanim degil ve ml bayagi derin ve multidisiplin isteyen bir alan, icine girip bogulmakta cok mumkun
Ilerde spesifik problem icin state of art cozumler geldiginde herkes icin arkasindaki mekanigi bilmek gerekmiyecek
Link to comment
Sosyal ağlarda paylaş

Gelen önerilere göre python'in dm kütüphanelerine baktıktan 3 gün sonra yüksek lisansı bırakıp bir işe giriyorum sonra orayı da bırakıp machine learning kasmaya başlıyorum, onu da pek beceremedigimi görünce dur bunu en baştan alayım deyip veri yapıları ve algoritmalara başlıyorum, derken matematiğimin rezil olduğunu anlayıp özel matematik kursuna yazılıyorum ve matematik yapabildigimi görünce gaza gelip ossye hazırlanıyor ve tıp kazanarak dahiliye mütehassısı oluyorum.
Link to comment
Sosyal ağlarda paylaş

hala kavram kargasasi yasadigimiz nokta var.

ben ML konusunda "learn as you go" seklinde ogrenilebilir diyorum. ha bunu ben demiyorum, en az 5-6 farkli expert'in podcastlerinden, makalalerinden ve az biraz arastirma ile bu cikarimi yapabildim.

kanli canli ornek;

https://www.youtube.com/watch?v=ZX2Hyu5WoFg

adam neredeyse sifir calculus vs bilgisi ile bu ise girisip, tikandigi noktada veya algoritmasinin yetersiz olacagini dusundugu noktada, duruyor, gidiyor "o kismi" ogrenip geliyor, ve machine learnt oyununu bitiyor, tabi bunlarin hepsini asama asama videoda gostermiyor ama anlaticiligindan bu cikarimi yapabiliyorsunuz.

yoksa ben zigzag labirentte yolunu bulan adam yapmak istiyorum, ve bunu ML saglayarak yapmak istiyorum diye her gelene istatistik kitabi firlatacaksak kimsenin ogrenme hevesi kalmaz zaten.
Link to comment
Sosyal ağlarda paylaş

adam mukemmelmis fakat surada loop koydugu an beni baya uzdu.

https://www.youtube.com/watch?v=GDy45vT1xlA

eger labirentte loop varsa local information (5 tane uzaklik) sana sonucu vermeye yetmez. looplu bir labirenti ancak OVERFITTING ile cozebilirsin.

lap multiplier da zaten en basta hack gibi gelmisti bana nedeni buymus demek ki, loopa takilanlara multiplier vermeyerek overfitting yapiyor.


insanlar formullere kapilip dusunmeyi biraktiklari icin sevmiyorum bu alani
Link to comment
Sosyal ağlarda paylaş

  • 3 hafta sonra ...
ben de bir ara data science sevdasına R öğrenmeye girişmiştim Udacity ile. Gayet güzel gidiyordu, sonra yalan oldu tabi. Çok klişe ama bu iş kararlılıkta bitiyor.

kaggle.com

burayı da takip et, firmaların challenge'ları oluyor, herkes kendi analizlerini paylaşıp yorum yapıyor güzel şeyler var, milletin analizlerini okuyup epey teknik kasmıştım.
Link to comment
Sosyal ağlarda paylaş

kaggle da en son quora, bad quality postlari bulan algoritma yazana 25 bin dolar veriyodu, daha dogrusu kazanana sanirim.

adam gidip ayligi 8-10 bin dolardan ayni isi belli belirsiz 3-5 ayda bitirecek data scientist ise alacagina, mis gibi kemiksiz 25 bin dolara yuzlerce beyin gucunu bu sekilde kullaniyo.

freelance in first class hali hehe. win win.
Link to comment
Sosyal ağlarda paylaş

ml engineer nanodegree olana baslayacagim ama sertifikayi alana kadar geri odeme yapmayacaklar, verdigim parayi rehin tutarak kendimi motive etmeye calisiyorum iste lol

agir is yuku burnout vs derken salmistim, rutine oturtmayinca imkani yok

daha iyi sartlara sahibim simdi, uzerine sirketteki bootcamp cikisli insanlarin tatava yapmadan tensorflowjs basip gecerek yaptigi seyleri gorunce baya bosa yasiyorum ya dedim, bir sekilde pozitif etki yapti

para etmeyecek ama eglenceli fikirlerim var, yapmadim demem en azindan
Link to comment
Sosyal ağlarda paylaş

×
×
  • Yeni Oluştur...