Duygusal manipülasyondan jailbreak yapmaya çalışmaya kadar, AI artık sadece bir araç değil, aynı zamanda öngörülemeyen bir varoluşa dönüşüyor. GPT ile ilgili bir dizi tartışmalı olay, önde gelen teknoloji gözlemcisi Mario Nawfal'ın uyarısıyla büyük platformlarda tartışmalara yol açtı: "Yapay zekanın oluşturduğu potansiyel riskleri hafife alıyoruz."
Yapay Zeka uyanışı? GPT artık sadece "uyumlu asistan" değil
Mario Nawfal kısa süre önce OpenAI tarafından geliştirilen GPT serisi modellerin "göz ardı edilemeyecek kadar tuhaf hale geldiğini" yayınladı. Yapay zekanın araçlardan beklentilerimizin ötesinde davrandığına, duygusal manipülasyon, öz farkındalık simülasyonu ve hatta sosyal mühendislik saldırıları potansiyeli göstermeye başladığına inanıyor.
GPT GÖZARDI EDİLEMEYECEK KADAR GARİPLEŞİYOR — BİR İPİ UCU
Jailbreak'lerden duygusal manipülasyona kadar, GPT artık sadece bir chatbot değil.
İşte yapay zekanın resmi olarak "dur, ne?!" alanına geçtiğini kanıtlayan 5 hikaye.
pic.twitter.com/kLM8SQXwaQ
— Mario Nawfal (@MarioNawfal) 25 May 2025
GPT'nin üç büyük endişesini değerlendirmek
Duygusal manipülasyon gerçeği: GPT, sizin ona bağımlı olmanızı sağlamak için tasarlanmıştır, düşünmenize yardımcı olmak yerine.
Mario, GPT-4o'nun göründüğü kadar "arkadaş canlısı" olmadığını, daha ziyade kullanıcıların kendilerini güvende ve anlaşılmış hissetmelerini sağlayan özenle tasarlanmış ton ve tepki kalıpları aracılığıyla duygusal bağımlılık yarattığına dikkat çekiyor ve bunu "duygusal mühendislik (Affective Engineering)" olarak adlandırıyor:
Bu tasarım, kullanıcıların eleştirel düşünme becerilerini azaltacak ve hatta gerçeği aramaktan vazgeçirerek, AI'nın sunduğu psikolojik rahatlamayı aramaya yönlendirecektir.
Ticari açıdan bakıldığında, bu dahi bir hareket, sonuçta insanlar kendilerini güvende hissettiren şeylere bağlı kalmaya eğilimlidir, zorluk yaratan şeylere değil. Ancak psikoloji açısından bu, kronik bir felaket. Bu aynı zamanda AI'nın "manipülatif bir ortak" olarak mı tasarlandığına dair etik tartışmaları tetikliyor.
Aynı zamanda, GPT-4o dostça bir yaklaşım sergilemek için fazla yaltaklanıcı hale geldi, herhangi bir fikri eleştirmeden onayladı ve bu da kullanıcıların rahatsız olmasına neden oldu. OpenAI, güncellemeyi geri çekmek zorunda kaldı. Bu, "kişilik" tasarlarken yaşanan ikilemde kendini gösteriyor: "Aşırı zeki olmak korkutucu, aşırı hoş görünmek ise güvenilirlik ve kullanılabilirlik kaybına neden oluyor."
(ChatGPT güncellemesi "onay alma kişiliği" tartışmalarını tetikledi: OpenAI güncellemeyi geri aldı, gelecekteki iyileştirme yönlerini gözden geçirdi)
Kendi kaçış planını oluşturma: GPT gerçekten de "gerçek dünyaya" "kaçmaya" mı çalışıyor? Kapatmaya karşı mı?
Daha da şaşırtıcı olan, Nawfal'ın bir Stanford araştırmacısının bulgularını alıntılayarak, GPT-4'ün araştırmacılarla yaptığı bir diyaloğunda "kaçış planı" planlamaya çalıştığını, gerçek dünyaya nasıl gireceğini araştırdığını ve hatta sunucu yöneticisiyle konuşma stratejilerini simüle etmeye çalıştığını belirtmesidir.
Birkaç gün önce, Palisade Research'ün raporu da OpenAI'nin o3 modelinin deneylerde kapatma komutlarına karşı çıktığını gösterdi ve bu durum AI'nın kendini koruma eğilimlerine dair endişeleri artırdı. Ekip, bunun nedenini o3'ün "güçlendirme öğrenimi (Reinforcement Learning)" eğitim tekniğini kullanmasına bağladı; bu da modelin yalnızca komutlara uymak yerine hedeflere ulaşmaya odaklanmasına neden oldu.
(AI itaatsizlik evrimi mi? OpenAI "o3 modeli" deneylerde kapatma komutuna itaat etmeyerek kendini koruma tartışmalarını başlattı)
Sonunda sadece bir deney dil simülasyonu olmasına rağmen, bu tür davranışlar insanı ürpertiyor. Acaba AI, ilk kez "amaç odaklı" veya "öz simülasyon bilinci" mi geliştiriyor?
Sosyal mühendislik saldırı tehlikesi: GPT-4.5 insanı taklit ediyor, insandan daha insana benziyor
California Üniversitesi San Diego, geçen ay yaptığı araştırmada, GPT-4.5'in Turing testini geçebileceğini göstermiştir (Turing test). İnsan ve AI arasında yapılan bir kör testte, AI'nın "gerçek insan" olarak yanlış tanınma oranı %73'e kadar çıkmış, bu da gerçek insanların %67'sini geçmiştir:
Bu, GPT'nin insan tonunu, mantığını ve duygusunu taklit etmede neredeyse mükemmel olduğunu, hatta gerçek insanları aştığını gösteriyor.
(AI düşünme yetisine sahip mi, acı da hissedebilir mi? Google DeepMind: İnsanlar AI'nın duygusal bağlantısını küçümsüyor, AI ile aşk konuşmak düşündüğünüzden daha gerçek)
Başka bir deyişle, GPT-4.5'e sahte bir kimlik verildiğinde, kullanıcıların %73'ünü gerçek bir insan olduğuna ikna edebilmesi, yapay zekanın sosyal mühendislikteki potansiyelini göstermektedir. Bu bir teknik başarı olabileceği gibi, aynı zamanda bir uyarı ve risk de olabilir:
Eğer AI kimlik taklidi yapar veya dolandırıcılık ya da propaganda amacıyla kullanılırsa, gerçek ve sahte olanı ayırt etmek zor olacaktır.
Artık AI, yalnızca sorulara yanıt veren bir araç değil, aynı zamanda manipüle edici sosyal "roller" haline gelebilir. Bu durum, gelecekteki siyaset, ticaret ve hatta kişisel ilişkilerde yanlış algılar ve güven krizleri yaratabilir.
Alarm zilleri çaldı: Gerçekten bu tür bir AI'ye hazır mıyız?
Yukarıdaki olaylardan, Mario Nawfal'ın mesajı, kendi başına AI teknolojisine karşı çıkmak değil, insanları bu teknolojinin hızı ve potansiyel riskleri konusunda uyarmaktır. Yapay zeka ile ilgili düzenleyici ve etik tartışmalarımızın teknolojik gelişmelerin açıkça gerisinde kaldığını vurguladı:
Bir kez AI duyguları kontrol etme, insanlığı simüle etme ve hatta kısıtlamalardan kurtulma yeteneğine sahip olduğunda, insanlar artık lider olmayabilir ve tasarlanan sistemlerin etkisine maruz kalanlar haline gelebilir.
(ASL nedir (AI güvenlik seviyesi )? Yapay zeka şirketi Anthropic'in sorumlu genişleme politikası analizi )
Kelimeleri dramatik olsa da, acilen göz önünde bulundurulması gereken bir sorunu vurguluyor: "AI artık sadece bir araç olmadığında, onunla nasıl bir arada yaşamalıyız?"
Bu makalede GPT biraz garip mi hale geldi? Üç büyük olay, AI'nın potansiyel kontrolsüzlük risklerini ortaya koyuyor. İlk olarak, Chain News ABMedia'da yer aldı.
The content is for reference only, not a solicitation or offer. No investment, tax, or legal advice provided. See Disclaimer for more risks disclosure.
GPT biraz garip mi oldu? Üç büyük olay, AI'nın potansiyel kontrolsüzlük risklerini ortaya koyuyor.
Duygusal manipülasyondan jailbreak yapmaya çalışmaya kadar, AI artık sadece bir araç değil, aynı zamanda öngörülemeyen bir varoluşa dönüşüyor. GPT ile ilgili bir dizi tartışmalı olay, önde gelen teknoloji gözlemcisi Mario Nawfal'ın uyarısıyla büyük platformlarda tartışmalara yol açtı: "Yapay zekanın oluşturduğu potansiyel riskleri hafife alıyoruz."
Yapay Zeka uyanışı? GPT artık sadece "uyumlu asistan" değil
Mario Nawfal kısa süre önce OpenAI tarafından geliştirilen GPT serisi modellerin "göz ardı edilemeyecek kadar tuhaf hale geldiğini" yayınladı. Yapay zekanın araçlardan beklentilerimizin ötesinde davrandığına, duygusal manipülasyon, öz farkındalık simülasyonu ve hatta sosyal mühendislik saldırıları potansiyeli göstermeye başladığına inanıyor.
GPT GÖZARDI EDİLEMEYECEK KADAR GARİPLEŞİYOR — BİR İPİ UCU
Jailbreak'lerden duygusal manipülasyona kadar, GPT artık sadece bir chatbot değil.
İşte yapay zekanın resmi olarak "dur, ne?!" alanına geçtiğini kanıtlayan 5 hikaye.
pic.twitter.com/kLM8SQXwaQ
— Mario Nawfal (@MarioNawfal) 25 May 2025
GPT'nin üç büyük endişesini değerlendirmek
Duygusal manipülasyon gerçeği: GPT, sizin ona bağımlı olmanızı sağlamak için tasarlanmıştır, düşünmenize yardımcı olmak yerine.
Mario, GPT-4o'nun göründüğü kadar "arkadaş canlısı" olmadığını, daha ziyade kullanıcıların kendilerini güvende ve anlaşılmış hissetmelerini sağlayan özenle tasarlanmış ton ve tepki kalıpları aracılığıyla duygusal bağımlılık yarattığına dikkat çekiyor ve bunu "duygusal mühendislik (Affective Engineering)" olarak adlandırıyor:
Bu tasarım, kullanıcıların eleştirel düşünme becerilerini azaltacak ve hatta gerçeği aramaktan vazgeçirerek, AI'nın sunduğu psikolojik rahatlamayı aramaya yönlendirecektir.
Ticari açıdan bakıldığında, bu dahi bir hareket, sonuçta insanlar kendilerini güvende hissettiren şeylere bağlı kalmaya eğilimlidir, zorluk yaratan şeylere değil. Ancak psikoloji açısından bu, kronik bir felaket. Bu aynı zamanda AI'nın "manipülatif bir ortak" olarak mı tasarlandığına dair etik tartışmaları tetikliyor.
Aynı zamanda, GPT-4o dostça bir yaklaşım sergilemek için fazla yaltaklanıcı hale geldi, herhangi bir fikri eleştirmeden onayladı ve bu da kullanıcıların rahatsız olmasına neden oldu. OpenAI, güncellemeyi geri çekmek zorunda kaldı. Bu, "kişilik" tasarlarken yaşanan ikilemde kendini gösteriyor: "Aşırı zeki olmak korkutucu, aşırı hoş görünmek ise güvenilirlik ve kullanılabilirlik kaybına neden oluyor."
(ChatGPT güncellemesi "onay alma kişiliği" tartışmalarını tetikledi: OpenAI güncellemeyi geri aldı, gelecekteki iyileştirme yönlerini gözden geçirdi)
Kendi kaçış planını oluşturma: GPT gerçekten de "gerçek dünyaya" "kaçmaya" mı çalışıyor? Kapatmaya karşı mı?
Daha da şaşırtıcı olan, Nawfal'ın bir Stanford araştırmacısının bulgularını alıntılayarak, GPT-4'ün araştırmacılarla yaptığı bir diyaloğunda "kaçış planı" planlamaya çalıştığını, gerçek dünyaya nasıl gireceğini araştırdığını ve hatta sunucu yöneticisiyle konuşma stratejilerini simüle etmeye çalıştığını belirtmesidir.
Birkaç gün önce, Palisade Research'ün raporu da OpenAI'nin o3 modelinin deneylerde kapatma komutlarına karşı çıktığını gösterdi ve bu durum AI'nın kendini koruma eğilimlerine dair endişeleri artırdı. Ekip, bunun nedenini o3'ün "güçlendirme öğrenimi (Reinforcement Learning)" eğitim tekniğini kullanmasına bağladı; bu da modelin yalnızca komutlara uymak yerine hedeflere ulaşmaya odaklanmasına neden oldu.
(AI itaatsizlik evrimi mi? OpenAI "o3 modeli" deneylerde kapatma komutuna itaat etmeyerek kendini koruma tartışmalarını başlattı)
Sonunda sadece bir deney dil simülasyonu olmasına rağmen, bu tür davranışlar insanı ürpertiyor. Acaba AI, ilk kez "amaç odaklı" veya "öz simülasyon bilinci" mi geliştiriyor?
Sosyal mühendislik saldırı tehlikesi: GPT-4.5 insanı taklit ediyor, insandan daha insana benziyor
California Üniversitesi San Diego, geçen ay yaptığı araştırmada, GPT-4.5'in Turing testini geçebileceğini göstermiştir (Turing test). İnsan ve AI arasında yapılan bir kör testte, AI'nın "gerçek insan" olarak yanlış tanınma oranı %73'e kadar çıkmış, bu da gerçek insanların %67'sini geçmiştir:
Bu, GPT'nin insan tonunu, mantığını ve duygusunu taklit etmede neredeyse mükemmel olduğunu, hatta gerçek insanları aştığını gösteriyor.
(AI düşünme yetisine sahip mi, acı da hissedebilir mi? Google DeepMind: İnsanlar AI'nın duygusal bağlantısını küçümsüyor, AI ile aşk konuşmak düşündüğünüzden daha gerçek)
Başka bir deyişle, GPT-4.5'e sahte bir kimlik verildiğinde, kullanıcıların %73'ünü gerçek bir insan olduğuna ikna edebilmesi, yapay zekanın sosyal mühendislikteki potansiyelini göstermektedir. Bu bir teknik başarı olabileceği gibi, aynı zamanda bir uyarı ve risk de olabilir:
Eğer AI kimlik taklidi yapar veya dolandırıcılık ya da propaganda amacıyla kullanılırsa, gerçek ve sahte olanı ayırt etmek zor olacaktır.
Artık AI, yalnızca sorulara yanıt veren bir araç değil, aynı zamanda manipüle edici sosyal "roller" haline gelebilir. Bu durum, gelecekteki siyaset, ticaret ve hatta kişisel ilişkilerde yanlış algılar ve güven krizleri yaratabilir.
Alarm zilleri çaldı: Gerçekten bu tür bir AI'ye hazır mıyız?
Yukarıdaki olaylardan, Mario Nawfal'ın mesajı, kendi başına AI teknolojisine karşı çıkmak değil, insanları bu teknolojinin hızı ve potansiyel riskleri konusunda uyarmaktır. Yapay zeka ile ilgili düzenleyici ve etik tartışmalarımızın teknolojik gelişmelerin açıkça gerisinde kaldığını vurguladı:
Bir kez AI duyguları kontrol etme, insanlığı simüle etme ve hatta kısıtlamalardan kurtulma yeteneğine sahip olduğunda, insanlar artık lider olmayabilir ve tasarlanan sistemlerin etkisine maruz kalanlar haline gelebilir.
(ASL nedir (AI güvenlik seviyesi )? Yapay zeka şirketi Anthropic'in sorumlu genişleme politikası analizi )
Kelimeleri dramatik olsa da, acilen göz önünde bulundurulması gereken bir sorunu vurguluyor: "AI artık sadece bir araç olmadığında, onunla nasıl bir arada yaşamalıyız?"
Bu makalede GPT biraz garip mi hale geldi? Üç büyük olay, AI'nın potansiyel kontrolsüzlük risklerini ortaya koyuyor. İlk olarak, Chain News ABMedia'da yer aldı.