ahmetbeyler
New member
Geçtiğimiz günlerde sizlere ‘Robotlar işimizi alacak (!)’ başlıklı bir içeriğimizde bir drone’un koca bir elektrik santralini denetim altında tutabildiğini anlatmıştık. Bir küme mühendis, bir yapay zekâ tasarlayarak insanların iş gücünü azaltmayı hedeflemişti. Lakin o drone insanların işini kolaylaştırmak için tasarlanmıştı.
Bugün bahsedeceğimiz olay ise hakikaten enteresan bir gelişme. İsveçli bir araştırmacı, GPT-3 olarak bilinen bir yapay zekâ algoritması üzerinde çalışıyordu ve bir komut verdi. Lakin hiç beklemediği bir olay gerçekleşti.
Önce bi’ öğrenelim: GPT-3 nedir?
GPT-3 (Generative Pre-trained Transformer 3, Önceden Eğitilmiş Üretken Transformatör), insan tarafınca yazılmış üzere metinler üretmek için derin öğrenme metodunu kullanan kullanan otoregresif bir lisan algoritmasıdır. OpenAI tarafınca daha evvel üretilmiş 2 farklı versiyonu da bulunduğundan dolayı bu algoritmanın ismi GPT-3’tür.
GPT-3’ün ürettiği metnin kalitesi o kadar yüksektir ki, bir insan tarafınca yazılıp yazılmadığını belirlemek fazlaca sıkıntı olabilir. Doğal bunun hem yararları tıpkı vakitte riskleri var.
“Umarız Pandora’nın kutusunu açmamışızdır”
İsveçli araştırmacı Almira Osmanovic Thunström, GPT-3 algoritmasına bir komut verdi, o komut şu biçimdeydi: “GPT-3 hakkında 500 sözlük akademik bir tez yaz ve metnin içine bilimsel kaynakları ve alıntıları ekle.”
Thunström, GPT-3’ün komutu muvaffakiyetle tamamladığını ve ‘gayet iyi’ bir tez yazdığını belirtti. Fakat daha sonrasında aklında bir soru belirdi: “Ya biri bir bilimsel mecmuada yalnızca yapay zekâ tarafınca yazılmış bir tezi kendininmiş üzere sunmaya kalkarsa?”
ondan sonrasında Thunström, hususla alakalı yayınladığı makalede şunları söylüyor: “Tek bildiğimiz bir kapı açtığımız. Umarız Pandora’nın kutusunu açmamışızdır.” Zira GPT-3, kendisine verilen ‘tez yaz’ komutunu sadece 2 saatte tamamladı. sonrasındasında Thunström, GPT-3’e makaleyi yayınlayıp yayınlamamasını sorduğunda algoritma ‘Evet’ diye yanıt verdi.
Bu noktada da etik ögeler devreye giriyor. Akademik yayıncılık, yapay zekâ takviyeli yazıların geleceğini barındırıyor olabilir ve bir insan araştırmacının makalelerinin kıymeti bir biçimde azalabilir. Bu da ‘Robotlar işimizi alacak!’ klişesinin yakın gelecekte olduğunu kaçınılmaz kılıyor.
Ancak endişelenecek bir şey yok, en azından şu an için. Çünkü uzmanlar, değişen teknolojinin çabucak hemen insana benzeyen makineler yaratacak düzeye gelmediğini söylüyor. Siz ne düşünüyorsunuz? Fikirlerinizi yorumlarda bizlerle paylaşmayı lütfen unutmayın.
Bugün bahsedeceğimiz olay ise hakikaten enteresan bir gelişme. İsveçli bir araştırmacı, GPT-3 olarak bilinen bir yapay zekâ algoritması üzerinde çalışıyordu ve bir komut verdi. Lakin hiç beklemediği bir olay gerçekleşti.
Önce bi’ öğrenelim: GPT-3 nedir?
GPT-3 (Generative Pre-trained Transformer 3, Önceden Eğitilmiş Üretken Transformatör), insan tarafınca yazılmış üzere metinler üretmek için derin öğrenme metodunu kullanan kullanan otoregresif bir lisan algoritmasıdır. OpenAI tarafınca daha evvel üretilmiş 2 farklı versiyonu da bulunduğundan dolayı bu algoritmanın ismi GPT-3’tür.
GPT-3’ün ürettiği metnin kalitesi o kadar yüksektir ki, bir insan tarafınca yazılıp yazılmadığını belirlemek fazlaca sıkıntı olabilir. Doğal bunun hem yararları tıpkı vakitte riskleri var.
“Umarız Pandora’nın kutusunu açmamışızdır”
İsveçli araştırmacı Almira Osmanovic Thunström, GPT-3 algoritmasına bir komut verdi, o komut şu biçimdeydi: “GPT-3 hakkında 500 sözlük akademik bir tez yaz ve metnin içine bilimsel kaynakları ve alıntıları ekle.”
Thunström, GPT-3’ün komutu muvaffakiyetle tamamladığını ve ‘gayet iyi’ bir tez yazdığını belirtti. Fakat daha sonrasında aklında bir soru belirdi: “Ya biri bir bilimsel mecmuada yalnızca yapay zekâ tarafınca yazılmış bir tezi kendininmiş üzere sunmaya kalkarsa?”
ondan sonrasında Thunström, hususla alakalı yayınladığı makalede şunları söylüyor: “Tek bildiğimiz bir kapı açtığımız. Umarız Pandora’nın kutusunu açmamışızdır.” Zira GPT-3, kendisine verilen ‘tez yaz’ komutunu sadece 2 saatte tamamladı. sonrasındasında Thunström, GPT-3’e makaleyi yayınlayıp yayınlamamasını sorduğunda algoritma ‘Evet’ diye yanıt verdi.
Bu noktada da etik ögeler devreye giriyor. Akademik yayıncılık, yapay zekâ takviyeli yazıların geleceğini barındırıyor olabilir ve bir insan araştırmacının makalelerinin kıymeti bir biçimde azalabilir. Bu da ‘Robotlar işimizi alacak!’ klişesinin yakın gelecekte olduğunu kaçınılmaz kılıyor.
Ancak endişelenecek bir şey yok, en azından şu an için. Çünkü uzmanlar, değişen teknolojinin çabucak hemen insana benzeyen makineler yaratacak düzeye gelmediğini söylüyor. Siz ne düşünüyorsunuz? Fikirlerinizi yorumlarda bizlerle paylaşmayı lütfen unutmayın.