Jump to content
Forumu Destekleyenlere Katılın ×
Paticik Forumları
2000 lerden beri faal olan, çok şukela bir paylaşım platformuyuz. Hoşgeldiniz.

Chat GPT OpenAI


roket adam

Öne çıkan mesajlar

razzRaziel, 01.04.2023 13:47 tarihinde dedi ki:

Artık kimse 245325 ile 325423'ü çarparken kafadan yapmak zorunda değil. Eğitim sistemini de değiştirdi, yaşama şeklimizi de, ilerleme hızımızı da. Eminim ki o zaman da gelenekselci proflar çıkıp hesap makinesi gençleri etkiliyor, hesaplama yaptıramıyoruz şeklinde yakınmıştır.

Biz daha fazlasını düşünmek istiyorsak, bazı şeyleri otomasyona almamız gerekiyor.

Valid bir örnek değil.

Hesap makinesine de insana da x ve y'nin 4 işleminin sonucu sorsan, doğru cevap tektir ve kanıtlanabilir.

AI'n verdiği bilgilerin doğruluğunu teyit edecek bir tool/mecra yok. Bunun üzerinden ödev vs. yapanların patlama ihtimali yüksek. Benzer olarak okul ödevi/projesi için ve daha vahimi çalıştığı şirketin projeleri için kod üretenler de aynı yerde. Bir problemi verip "bana bunun kodunu yaz" dediğin modelin, sana doğru kodu yazdığını en başta senin valide edebiliyor olman lazım. Yapamazsan gene sıkıntı büyük.

İşin zaten büyük çaplı misinformation kısımlarına falan girmeye lüzum bile yok. Yaz bir bot, sal internete, trollere para vermek yerine senin yaysın misinformationı hatta sana cevap verenlere cevap da versin vs.

Üstüne bu modeller, internetten toplanan bilgilerle eğitiliyor. Daha geçen hafta okumuştum, Stackoverflow'da baya taşaklı soru cevaplayıcıları artık Stackoverflow ve/veya internetin herhangi bir yerinde sorulara cevap vermeyi bırakmaya başladılar. Bu adamlar content üretmezse, gelecek modeller de ilerleyemez. Bir adım daha kötüsü de stackoverflow'a chatbotları yığıp, bu modellerin kendi outputlarıyla kendilerini feedlemesi ve saçma bir feedback loopuna sokma ihtimali.

Özet olarak hesap makinesinin tek tehlikesi eski kafalı insanların işlerini elinden almasıydı. ChatGPT ve türevlerinin en küçük tehlikesi insanları işsiz bırakma ihtimali.

  • Like 1
  • Tesekkurler 1
Link to comment
Sosyal ağlarda paylaş

nasil valid ornek degil?

is arkadasimin 13 yasinda oglunun butun sinif odev yapiyor ve anlasilmiyor

sozlu sinav'in agirlik%'sini arttirdilar, odev vermiyor artik kimse

+

bing AI de chat-gpt kullaniyor, bazi seyleri cok daha iyi yapiyor.

seni memnun etmek icin cevap vermiyor, valid fact ortaya koyuyor diyeyim

 

bing rules

Spoiler

4eupnz79v2ha1.png

 

Goering tarafından düzenlendi
Link to comment
Sosyal ağlarda paylaş

hesap makinesi kadar masum bir icat değil diyor adam. denetimi olmazsa tüm algıları yönetebilecek bir alet. birilerinin fact check'ini yapması denetlemesi lazım. tüm bilgi akışını bunlara bırakırsan, elinde yeterince botu olan bir firma alakası olmamasına rağmen rakip bir firmayı şeytanlaştırabilir. onun hakkında yalan yanlış bilgiler yayabilir mesela. 

Link to comment
Sosyal ağlarda paylaş

@Goering adamın bahsettiği şeyi kaçırıyorsun bence. gayet asla valid fact olmayan şeyleri, hatta tamamen hayal ürünü şeyleri büyük bir özgüvenle sana sunabiliyor.

kendimden örnek vereyim buna. takıldığım bir çince ifade oldu, gpt-4'e sordum. bana bunun çok eski bir şiirden bir alıntı olduğunu, şair x tarafından yazıldığını, y dönem şiiri olduğunu söyledi. şiirin tamamını, motamot anlamını ve aslında kastettiği şeyi yazdı. kaynak falan da verdi birkaç tane. vay anasını dedim. sorun şu ki öyle bir şiir yok, öyle bir şair yok, kaynaklar yok, böyle bir şiir hiç yazılmamış. verdiği anlam da doğru değil.

  • Like 1
Link to comment
Sosyal ağlarda paylaş

teyit aşaması da sonuçta yine arama motorları ile olacaksa ve ileride haber siteleri, akademik çalışmalar veya diğer kaynaklar da ai tarafından verilen bilgileri kullanıp haberler, çalışmalar yaratırsa bu tavuk mu yumurtadan yumurta mı tavuktan paradoksu doğurabilir. senin doğru bilgi mi diye baktığın tez de ai tarafından yönlendirilmişse ortada neyin gerçek neyin sahte olduğunu bilebileceğimiz kaynak sayısı çok sınırlı kalır. hele türkiye gibi akademik ahlaksızlığın zirve yaptığı, haber sitelerinin neredeyse sıfır teyitle haberler yaptığı bir ortamda acayip mağduriyetler doğar. 

 

mesela prudent yukarıdaki şiiri <belki de vardır da ben bulamamışımdır> diye bir yayınına koysa altında kaynaklarıyla falan inanılmaz bir bilgi kirliliği yaratmış olacaktı. 

ahmedinejad tarafından düzenlendi
Link to comment
Sosyal ağlarda paylaş

tamam abi konuşmayalım hiçbir şey o zaman nasıl olsa geleceği bilmiyoruz.

argümanın da üzgünüm ama direkt salakça yani. kimse her şeyi bildiğini iddia ettiğini söylemiyor. aynı zamanda adamlar "kahvedeki abi seviyesi bu fazla takılmayın" da demiyor ama. yine kahvedeki bilo ağa "ben bütün literatürü taradım, budur abi" diye anlatmıyor sana zaten anlattığı şeyi. bunun sorun yaşatacağı gayet ortada, boş yapıyorsun. 

PrudenT tarafından düzenlendi
Link to comment
Sosyal ağlarda paylaş

Phoenixlin, 02.04.2023 13:31 tarihinde dedi ki:

Valid bir örnek değil.

Hesap makinesine de insana da x ve y'nin 4 işleminin sonucu sorsan, doğru cevap tektir ve kanıtlanabilir.

AI'n verdiği bilgilerin doğruluğunu teyit edecek bir tool/mecra yok. Bunun üzerinden ödev vs. yapanların patlama ihtimali yüksek. Benzer olarak okul ödevi/projesi için ve daha vahimi çalıştığı şirketin projeleri için kod üretenler de aynı yerde. Bir problemi verip "bana bunun kodunu yaz" dediğin modelin, sana doğru kodu yazdığını en başta senin valide edebiliyor olman lazım. Yapamazsan gene sıkıntı büyük.

İşin zaten büyük çaplı misinformation kısımlarına falan girmeye lüzum bile yok. Yaz bir bot, sal internete, trollere para vermek yerine senin yaysın misinformationı hatta sana cevap verenlere cevap da versin vs.

Üstüne bu modeller, internetten toplanan bilgilerle eğitiliyor. Daha geçen hafta okumuştum, Stackoverflow'da baya taşaklı soru cevaplayıcıları artık Stackoverflow ve/veya internetin herhangi bir yerinde sorulara cevap vermeyi bırakmaya başladılar. Bu adamlar content üretmezse, gelecek modeller de ilerleyemez. Bir adım daha kötüsü de stackoverflow'a chatbotları yığıp, bu modellerin kendi outputlarıyla kendilerini feedlemesi ve saçma bir feedback loopuna sokma ihtimali.

zaman faktörünü düşünmeden sadece şu an için cevap veriyorsun bak. AI eskiden kediyle köpeği de düzgün ayıramıyordu, seneler önce google fotoğraflarını kategorize ederken komik hatalar yapıyordu. bilgilerin doğruluğu vs bunlar aşılmayacak şeyler değil, zamanla yeni sistemler gelecek.

data konusunda ise adam gider 3-5 en iyi adamı eğitimci olarak çalıştırır çok zor bişey değil. evladına özel ders aldırıyormuş gibi düşün. ya da zamanında ingiliz hükümetinin profları toplayıp oxford sözlüğünü oluşturmak için çalıştırması gibi. şu an en başındayız ve etrafta free data var diye internet'ten eğitiyorlar.

hele ki şu an AI sadece text üzerinden öğreniyor. yarın bu sistemler videoları parse edecek. youtube'daki tüm videoları izleyip data kaydettiğini düşün (önce free content yine). udemy'e veya bilimum eğitim sitelerindeki tüm videoları hatip ettiğini düşün. 

Phoenixlin, 02.04.2023 13:31 tarihinde dedi ki:

Özet olarak hesap makinesinin tek tehlikesi eski kafalı insanların işlerini elinden almasıydı. ChatGPT ve türevlerinin en küçük tehlikesi insanları işsiz bırakma ihtimali.

bu diğer yazdıklarının özeti değil ama, işsizlik konusu derinlemesine tartışılacak başlı başına ayrı bir konu.

Link to comment
Sosyal ağlarda paylaş

PrudenT, 02.04.2023 15:09 tarihinde dedi ki:

@Goering adamın bahsettiği şeyi kaçırıyorsun bence. gayet asla valid fact olmayan şeyleri, hatta tamamen hayal ürünü şeyleri büyük bir özgüvenle sana sunabiliyor.

kendimden örnek vereyim buna. takıldığım bir çince ifade oldu, gpt-4'e sordum. bana bunun çok eski bir şiirden bir alıntı olduğunu, şair x tarafından yazıldığını, y dönem şiiri olduğunu söyledi. şiirin tamamını, motamot anlamını ve aslında kastettiği şeyi yazdı. kaynak falan da verdi birkaç tane. vay anasını dedim. sorun şu ki öyle bir şiir yok, öyle bir şair yok, kaynaklar yok, böyle bir şiir hiç yazılmamış. verdiği anlam da doğru değil.

dedigini cok iyi anliyorum ama zaten machine learning ve AI olayi bu.

karar vermiyor, karar sende.

inanmak veya inanmamak -- bence de TV'den falan daha tehlikeli.

"dogru" cevap vermedigini soyluyor bazi yerlerde zaten.

 

Machine Learning'de de zaten soyluyorlar, "bilinc" olmadigi icin ML==AI gecisi yaparken karar mekanizmasi insan.

  • Like 1
Link to comment
Sosyal ağlarda paylaş

Fistan, 02.04.2023 16:21 tarihinde dedi ki:

sorun yaratmaz diyen olmadı ki zaten, sen niye alındın ki, internette hali hazırda bir çok yanlış bilgi var zaten ai’lar yanlış bilgi vermiş, yine teyit sorumluluğu sana düşüyor ya da ai a güvenip güvenmemek insanın kararı yani. 

söylediğin şeyin salakça olduğunu düşündüğüm için alınmış mı oluyorum, ne alaka. konuşulan şeyin bağlamı da zaten bunun nasıl aşılacağı falanken gelip kahvedeki bilo ağa diye giren sensin abi. 

  • Like 1
Link to comment
Sosyal ağlarda paylaş

en basitinden annemlerde bugun ciborek yedik:

sonra annemin telefona chatgpt kurdum browserdan, orda turkce "ciborek nasil yapilir?" diye sorduk.

-- beyaz peynirli ciborek tarifi getirdi, biliyoruz ki kimse bunu aramiyor 1. secenek 😀

 

zaten 2. veya 3. ayni soru uzerinden devam edersen, seni memnun etmeye yonelik cevap veriyor

//

ML'de de olay zaten INPUT datasini dogru vermen ve OUTPUT'u yorumlayabilmen.

bu ayni sey.

 

Goering tarafından düzenlendi
Link to comment
Sosyal ağlarda paylaş

yani bir AI-chatGPT kurmadan arkasina ML kurman gerekiyor.

ML basic 101 dersinde bu anlatiliyor:

INPUT datasini dogru vermen ve OUTPUT'u yorumlayabilmen.

 

dogru soru ve cevabin dogrulugu hep muamma, MATTER EXPERT olman gerekiyor ki yorumlayabil.

Goering tarafından düzenlendi
Link to comment
Sosyal ağlarda paylaş

Tam olarak çağrı merkezi çalışanı seviyesinde bence chat gpt, gerçek bir sorun olmadığı sürece standart cevapları genellikle doğru verir karşısındakine.

Ödevlerin bununla yapılması bir sorun mu konusu daha ilginç bence, okul eğitiminin sosyalleşme dışındaki en büyük katkısı araştırma yapmayı öğretmesi, neyi araştıracağını bilmek, bilgiyi bağlama oturtmak, yanlışı doğruya kendi başına tartma yetisi. İnternetin gelişimi bilgiyle ilişkimizi değiştiriyor, bilmek ikinci plana düşüyor, zaten internetteki bir bilgiyi öğrenmenin anlamsızlaştığı kanısı yaygınlaşıyor. Hatta işte internetin beynimizin bir parçası olduğu iddiası var, hele ki teknoloji geliştikçe belki herhangi bir sorunun cevabı 1 saniyede zihninde belirecek.

Fakat bence bilgiyi tamamen bilgi olarak ele almak düşünme açısından dezavantaj yaşatıyor. Şu anda cahilliğin altın çağındayız, cahilin teki bir youtube videosu izleyip oradaki doğru bilgilerden saçma sapan tezler üretebiliyor. Orada kahvedeki bilmemne emminin palavrası kısmına geliyoruz gerçekten, yapay zekanın sana verdiği cevap yanlış olabildiği gibi doğru olup gayet yanlış düşünceleri de tetikleyebilir. Bilgiyi doğru kullanmak için önce genel bilgiye sahip olmak gerek, bir konuya iyi kötü hakimsen sana gelen verileri çok daha doğru süzüp doğru düşünce geliştirebiliyorsun. Çünkü eş zamanlı olarak bütün bilgi havzanla karşılaştırıyorsun aldığın veriyi, çok yönlü sınıyorsun. Bilgiyi sadece chatgpt'den almaya alışırsın veriyi sınama yetisini nasıl geliştireceksin?

Çok toparlayamadım sanırım ama demek istediğim eğer yapay zeka insanın bilgiye ulaşma için araştırma yapma ihtiyacını ortadan kaldıracaksa eğitim sisteminde ödev zaten gereksiz olacaktır. Benim asıl merak ettiğim bu durum düşünce sistemimizi nasıl etkiler? Hesap makinesinin ilerlemeyi hızlandırdığı doğru ama ortalama insanı daha akıllı yaptığını sanmıyorum.

Link to comment
Sosyal ağlarda paylaş

AI ya birakilsa bircok is tam bir utopya altinda yasayacagiz, bunu 3-5 sonraki nesil gorecek de, biz yine onlarla karsilastirildiginda magara adami gibi kalacagiz lel. insanligin challange'i dogaya karsi degil de AI'i nasil daha etkin bir hale getirebilirime donecegi icin beyin kapasitesi 20x yapar diyorum.

YTD.

reyou tarafından düzenlendi
Link to comment
Sosyal ağlarda paylaş

×
×
  • Yeni Oluştur...