Bone Mesaj tarihi: Mayıs 31, 2025 Mesaj tarihi: Mayıs 31, 2025 ChatGPT veya Deepseek'te mesela "İnegöl köftesi tarifi verir misin, bunun normal hamburger köftesiyle farkı nedir?" diye arama yaptığımda, bana biraz da uydurarak da olsa anlamlı bir sonuç veriyor. Şu kadar baharat koyacaksın, şu kadar kıyma koyacaksın, tavada şu kadar pişireceksin vs diye anlatıyor. Arama özelliği aktifse (ChatGPT'de yakın zamanda default açık hâle getirilmiş) internetten rastgele siteleri arayıp oralardaki tariflerden bir çıkarım yapıp sonucu aktarıyor. LM Studio ve Ollama kurup deepseek-r1:8b gibi bir model kullanırsak, çok saçma ve rastgele sonuçlar veriyor. "İnegöl köfeesi sarı limondan kırmıı bib birlşm hambur ekmeği içind yenir." gibi tamamen uydurmaca cevaplar çıkıyor. Bunun tokenlerla ve parametrelerle alâkası varmış. deepseek-r1:671b yüklesek evdeki PC bunu kaldıramayacağı için, Deepseek'in kendi sitesinde elde ettiğimiz sonuçlara ulaşamıyormuşuz. (Yanlış anlamadıysam) Peki bunlar içinde şöyle bir sistem yaratmak mümkün mü? Tamamen sıfırdan oluşmuş, boş ve tertemiz bir LLM olacak. Ben buna ne bilgi verirsem, sadece ondan ibaret olacak ve bilgi havuzunu da buna göre dolduracak. Yani mesela Street Fighter ile ilgili Wiki ve fan sayfalarındaki karakterler hakkındaki bilgileri yükleyeceğiz ve oradaki yazılardan bir veri tabanı oluşturacak. Ben "Ryu'un Sagat ve Akuma ile bağlantısı nedir?" diye sorduğumda, bu bilgiler üzerinden bir yorum ve analiz yapacak. Ryu hakkında verdiklerimizi, Sagat hakkında verdiklerimizi, Akuma hakkında verdiklerimizi inceleyip bir cevap verecek. Gidip de bana "Ryu ile Scorpion çok iyi arkadaşlardı, Superman'e karşı birlikte savaşmışlardı" gibi yoktan cevap uydurmayacak. Böylelikle sadece Street Fighter lore'u üzerine uzmanlaşmış bir kaynak oluşturmuş olacağız. Ya da mesela ben buna PDF formatında bir sürü yemek kitabı yükleyeyim. Her bir kitaptaki bilgileri birleştirip toplayıp geniş bir arşiv oluştursun. "Sütlaç nasıl yaparım" diye sorduğumda, bu topladığı bilgiler üzerinden bir tarif çıkarsın, farklı püf noktalarını da dahil etsin, ve bana bu yemeği nasıl yapacağımı anlatsın. Böylelikle sırf yemek yapma ve gastronomi üzerine özelleşmiş bir kaynak oluşmuş olacak. Bu işlerle uğraşanlar için çok noob soruları gibi gelebilir bunlar. Ama yine de aydınlatırlarsa sevinirim.
Genel Yönetici GERGE Mesaj tarihi: Haziran 1, 2025 Genel Yönetici Mesaj tarihi: Haziran 1, 2025 Yok olmaz. LLM içinde o 600B parametre olduğu için zeki. 8B küçük olduğu için aptal. 8B modeller Türkçe de pek bilmiyor bu arada, İngilizce sor. Senin dediğin biraz RAG ile olur, dosyalar arasında arama yapıp bilgi alarak cevap verme.
Gallant Mesaj tarihi: Haziran 1, 2025 Mesaj tarihi: Haziran 1, 2025 nvidia nin dosyalar arasinda arama yapip cevap veren bir modeli olmasi lazim, stand alone calisiyor.
Grego Mesaj tarihi: Haziran 1, 2025 Mesaj tarihi: Haziran 1, 2025 sen aslında google notebooklm anlatıyorsun sanki.
DoruK Mesaj tarihi: Haziran 1, 2025 Mesaj tarihi: Haziran 1, 2025 (düzenlendi) https://huggingface.co/spaces/AutoRAG/Naive-RAG-chatbot Buradan RAG deneyebilirsin. Gerge’nin dedigi gibi bu is icin kullanilan bir konsept. Haziran 1, 2025 DoruK tarafından düzenlendi
df Mesaj tarihi: Haziran 3, 2025 Mesaj tarihi: Haziran 3, 2025 chatgpt de soracağım soruların cevaplarını sadece vereceğim dosyaların içerisinden bul gibi önden komut verip, söylediğin kaynakları da önceden bulk olarak text file olarak yüklersen istediğine benzer sonuç oluyor. ama aynı context ten ilerlemen lazım. sıfırlandıkça o file ları yeniden yükleyeceksin vs. senin sorunu doğru algılamayı genel büyük modelden halledip cevabı senin contextinden veriyor. ben benzer işler yapıyorum ama kaynak çok büyükse context in limitlere takılabilir tabi.
Öne çıkan mesajlar