İster sürücüsüz bir aracın kazası, ister önyargılı bir algoritma, isterse de müşteri hizmetleri sohbet robotunun arızası olsun, devreye alınan yapay zeka sistemlerindeki arızalar ciddi sonuçlar doğurabilir ve önemli etik ve toplumsal soruları gündeme getirebilir.
Şirketler, temel sorunları belirleyip ele alarak yapay zekâ ile ilişkili riskleri azaltabilir veyapay zekânın sorumlu yapay zekâ en iyi uygulamalarına uygun olarak güvenli ve etik bir şekilde kullanılmasını sağlayabilirler.
Yapay zeka projelerinin yüksek başarısızlık oranlarının 10 yaygın nedenini keşfedin ve gerçek dünya örneklerini inceleyin.
Organizasyonel ve stratejik başarısızlıklar
1. Belirsiz iş hedefleri
İyi tanımlanmış bir iş problemi ve net iş hedefleri olmadan yapay zekayı uygulamak başarı için yeterli değildir. Şirketler, belirsiz bir iş problemine çözüm bulmaktan yola çıkmak yerine, öncelikle iş problemlerini belirlemeli ve tanımlamalı, ardından yapay zeka tekniklerinin ve araçlarının bu problemleri çözmeye yardımcı olup olmayacağına karar vermelidir.
Ayrıca, bir yapay zeka projesinin maliyetlerini ve potansiyel faydalarını ölçmek şu nedenlerden dolayı zordur:
- Yapay zekâ projesi geliştirmek ve yapay zekâ modeli oluşturmak/eğitmek deneysel bir süreçtir ve uzun bir deneme-yanılma süreci gerektirebilir.
- Yapay zeka modelleri olasılıksal iş problemlerini çözmeye çalışır; bu da sonuçların her kullanım durumu için aynı olmayabileceği anlamına gelir.
İyi tanımlanmış bir iş hedefi, yapay zekanın doğru araç olup olmadığı veya söz konusu sorunu çözmek için alternatif araçlar veya yöntemler olup olmadığı konusunda net bir fikir verebilir. Bu, şirketleri gereksiz maliyetlerden kurtarabilir.
2. Kara Kutu Yapay Zeka Sistemleri
Kara kutu yapay zekâ, içsel karar alma süreçleri insanlar tarafından anlaşılamayan modelleri ifade eder. Kullanıcılar bu sistemlerin girdilerini ve çıktılarını gözlemleyebilirken, modelin kararlarının ardındaki mantık gizli kalır.
Örneğin, bir yapay zeka işe alım sistemi, iş adaylarını gönderilen özgeçmişlere göre sıralayabilir, ancak bu sıralamaları etkileyen kesin faktörler ve ağırlıklar görünmez. Bu şeffaflık eksikliği, eğitim verilerindeki önyargıların tespit edilememesine, hataların izlenmesinin ve düzeltilmesinin zorlaşmasına ve kuruluşların otomatik kararları açıklamakta veya gerekçelendirmekte zorlanmasına yol açarak potansiyel başarısızlıklara katkıda bulunabilir.
Sonuç olarak, şeffaf olmayan sistemler adalet, hesap verebilirlik ve güven konusunda endişelere yol açabilir. Bununla birlikte, kara kutu yapay zekâ, doğası gereği bir başarısızlık değildir, çünkü bu tür modellerin çoğu, özellikle derin sinir ağları gibi karmaşık sistemler, oldukça doğru ve etkili olabilir.
En büyük zorluk, sorunlar ortaya çıktığında nedenlerinin belirlenmesinin zor olmasıdır; bu da kara kutu yapay zekayı kendi başına bir başarısızlık olmaktan ziyade güvenilirlik ve yönetişim riski haline getirmektedir.
Örneğin, New Relic bu zorluğa bir çözüm öneriyor. Şirket, ChatGPT içinde oluşturulan uygulamalara tam görünürlük sağlayan ve işletmelerin hizmetlerinin yapay zeka destekli arayüzlerde nasıl göründüğünü ve çalıştığını izlemelerine ve optimize etmelerine yardımcı olan bir gözlem çözümü duyurdu.
Bu çözüm, mühendislik ekiplerinin ChatGPT uygulamalarının performansını, kullanımını ve güvenilirliğini izlemesini sağlayarak, gömülü yapay zeka deneyimlerinin "kara kutu" niteliğini ortadan kaldırır. 1
3. Takımlar arasında işbirliği eksikliği
Yapay zeka projesinde veri bilimcilerinin tek başına çalışması başarı için bir reçete değildir. Başarılı bir yapay zeka projesi oluşturmak, veri bilimciler, veri mühendisleri, BT uzmanları, tasarımcılar ve iş birimi profesyonelleri arasında iş birliğini gerektirir. İş birliğine dayalı bir teknik ortam oluşturmak şirketlere şu konularda yardımcı olacaktır:
- Yapay zeka projesinin çıktısının, genel teknolojik mimarilerine iyi bir şekilde entegre edilmesini sağlayın.
- Yapay zeka geliştirme sürecini standartlaştırın.
- Öğrenilenleri ve deneyimleri paylaşın, en iyi uygulamaları geliştirin.
- Yapay zeka çözümlerini geniş ölçekte kullanıma sunun.
Farklı ekipler arasındaki boşluğu kapatmak ve yapay zeka sistemlerini büyük ölçekte operasyonel hale getirmek için DataOps ve MLOps olarak bilinen bir dizi uygulama mevcuttur. Dahası, farklı iş alanlarından veri bilimcilerinin iş birliği yapabileceği birleşik bir Yapay Zeka Mükemmeliyet Merkezi (CoE) kurmak, iş birliğini geliştirebilir.
4. Yetenek eksikliği
Bu yetenek eksikliği nedeniyle, yetenekli bir veri bilimi ekibi oluşturmak maliyetli ve zaman alıcı olabilir. Uygun eğitim ve iş alanı uzmanlığına sahip bir ekip olmadan, şirketler yapay zeka girişimleriyle fazla bir şey başarmayı beklememelidir.
İşletmeler, bünyelerinde veri bilimi ekipleri oluşturmanın maliyetlerini ve faydalarını analiz etmelidir. İşletme hedeflerinize ve faaliyetlerinizin ölçeğine bağlı olarak, yapay zeka uygulamalarını uygulamaya koymak için dış kaynak kullanımı başlangıçta daha uygun maliyetli bir alternatif olabilir.
Veriyle ilgili arızalar
Veri, her yapay zeka projesinin temel kaynağıdır. İşletmeler, projelerinde kullanacakları verilerin kullanılabilirliğini, kalitesini, bütünlüğünü ve güvenliğini sağlamak için bir veri yönetişim stratejisi geliştirmelidir. Güncelliğini yitirmiş, yetersiz veya yanlı verilerle çalışmak, "çöp girerse çöp çıkar" durumlarına, projenin başarısızlığına ve işletme kaynaklarının israfına yol açabilir.
5. Aşırı uyum: Öğrenmek yerine ezberlemek
Aşırı uyum (overfitting), yapay zeka modellerinin eğitim verilerine aşırı derecede uzmanlaşması ve yeni girdilere genelleme yapamaması durumunda ortaya çıkar. Bu yapay zeka hatası, finansal dolandırıcılık tespitinde kullanılan derin öğrenme modellerinde yaygındır; bu modellerde araç yalnızca geçmiş dolandırıcılık kalıplarını tanıyabilir ve ortaya çıkan taktikleri gözden kaçırabilir.
Aşırı uyum (overfitting), yapay zeka projelerinin başarısız olmasının başlıca nedenlerinden biridir; çünkü yapay zeka destekli teknolojiler, geçmiş kalıplara güvenmek yerine dinamik ortamlara uyum sağlamalıdır. Veri kalitesinin düşük olması ve yapay zekanın gözlemlenebilirliğinin yetersiz olması bu sorunu daha da kötüleştirir.
6. Uç durumların ihmal edilmesi: Nadir senaryoların göz ardı edilmesi
Nadir görülen ancak kritik öneme sahip uç durumlar, yapay zeka sistemlerinin yanlış kararlar vermesine sıklıkla yol açar. Otonom araçlarda , navigasyon için tasarlanmış bir yapay zeka sohbet robotu, alışılmadık sürüş koşullarını işlemekte başarısız olabilir.
Yapay zekâ girişimlerinde uç durumları göz ardı etmek, finansal kayıplara, güvenlik risklerine ve müşteri güveninin kaybına yol açabilir. Büyük dil ve derin öğrenme modellerine sahip kuruluşlar, uç durumların ele alınmasını iyileştirmek için yüksek kaliteli verileri entegre etmelidir.
7. Korelasyon bağımlılığı: Yanlış varsayımlar ve ayrımcı sonuçlar
Yapay zekâ projeleri, modellerin korelasyonu nedensellikle karıştırması nedeniyle sıklıkla başarısız olur. Örneğin, yapay zekâ destekli bir işe alım sistemi, becerilerden ziyade eğitim verilerine yerleştirilmiş önyargılar nedeniyle belirli bir posta kodundan gelen adayları tercih edebilir. Bu da ayrımcı sonuçlara yol açabilir.
8. Veri yanlılığı: Eşitsizliği pekiştirme ve etik sonuçlar
Veri önyargısı , özellikle karar verme amacıyla kullanılan makine öğrenimi modellerinde, yapay zeka girişimlerinde kritik bir sorundur. Bunun bilinen bir örneği, öncelikle beyaz hastalardan elde edilen verilerle eğitilen ve beyaz olmayan hastalar için yanlış teşhislere yol açan sağlık alanındaki yapay zeka modelleridir.
Yapay zekâ teknolojilerine yerleşmiş bu tür önyargılar, etik sonuçlar ve yasal zorluklar yaratabilir. Kuruluşlar, veri kalitesinin düşük olmasını önlemek ve yapay zekâ projelerinde doğruluğu artırmak için veri bilimi en iyi uygulamalarına odaklanmalıdır.
9. Yetersiz uyum: Karmaşıklıktan yoksun yapay zeka modelleri
Yetersiz uyum, makine öğrenimi modellerinin çok basitleştirilmiş olması durumunda ortaya çıkar ve bu da düşük performansa yol açar. Örneğin, kötü tasarlanmış bir yapay zeka sohbet robotu , kullanıcının niyetini ayırt etmekte zorlanabilir ve bu da sohbet robotunun yalan söylemesine ve yanlış önerilerde bulunmasına neden olabilir.
Yapay zekâ projeleri, kuruluşlar karmaşık örüntüleri işleme yeteneklerini geliştirmeden, yeterince eğitilmemiş modellere güvendiklerinde başarısız olur. Yapay zekânın gözlemlenebilirliğinin ve sürekli model iyileştirmesinin kritik önemi göz ardı edilemez.
10. Veri kayması: Yapay zekanın değişime uyum sağlama mücadelesi
Yapay zeka araçları verilerin zaman içinde tutarlı kaldığını varsayar, ancak sosyal medya platformunda müşteri davranışındaki değişim gibi gerçek dünyadaki değişiklikler veri kaymasına yol açabilir.
Finansal tahminlerde veya hukuki araştırmalarda kullanılan yapay zeka modellerinin doğruluğunu korumak için sık sık güncellenmesi gerekir. Yapay zeka teknolojilerine yatırım yapan kuruluşlar, milyonlarca yeni veri noktası ortaya çıktıkça modellerin güvenilirliğini sağlamak için yapay zeka gözlemlenebilirliğine öncelik vermelidir.
Şirketler, bir yapay zeka projesine başlamadan önce, iş operasyonlarını temsil eden, doğru etiketlere sahip ve kullanılacak yapay zeka aracı için uygun olan güvenilir kaynaklardan yeterli ve ilgili verilere sahip olduklarından emin olmalıdır. Aksi takdirde, yapay zeka araçları hatalı sonuçlar üretebilir ve karar verme süreçlerinde kullanıldığında tehlikeli olabilir.
Kaliteli verilere kolayca erişemiyorsanız, veri toplama uzmanları işletmenize yardımcı olabilir.
Gözlemlenebilirliğe ek olarak, bazı kuruluşlar üretim ortamında model davranışını otonom olarak izleyen ajan tabanlı izleme sistemlerini benimsemektedir. Ajan tabanlı izleme sistemleri, üretim ortamında model girdilerini, çıktılarını ve ajan davranışını sürekli olarak izler. Veri kayması, performans düşüşü veya anormal ajan eylemleri gibi sorunları tespit etmek için özellik dağılımlarını, yanıt kalıplarını ve yürütme izlerini analiz ederler.
Anormallikler tespit edildiğinde, izleme süreçleri uyarılar, değerlendirme kontrolleri, yeniden eğitim iş akışları, geri alma işlemleri veya sorumlu ekiplere bildirimler gibi otomatik yanıtları tetikleyebilir. Gerçek dünya verilerindeki ve ajan davranışındaki değişiklikleri proaktif olarak belirleyerek, ajan tabanlı izleme, sistem performansının, güvenilirliğinin ve güvenliğinin zaman içinde korunmasına yardımcı olur.
Yapay zeka projelerinin başarısızlığına örnekler nelerdir?
Telif hakkı ihlali davaları
Üretken yapay zekanın hızlı büyümesi, çoğunlukla yazarlar, sanatçılar ve medya kuruluşları tarafından, telif haklarıyla korunan eserlerinin izinsiz olarak yapay zeka sistemlerini eğitmek için kullanıldığı iddiasıyla, yapay zeka şirketlerine karşı 70'ten fazla telif hakkı ihlali davasına yol açtı.
Bazı mahkeme kararları, yasal yollarla elde edilen verilerle model eğitmenin adil kullanım olarak değerlendirilebileceğini, ancak korsan veya izinsiz kopyaların kullanılmasının yine de telif hakkı yasasını ihlal edebileceğini öne sürmüştür.
Örneğin, Bandcamp, tamamen veya büyük ölçüde yapay zeka tarafından üretilen müzik ve ses içeriklerini yasaklayan bir politika duyurdu.
Platform, amacının insan yaratıcılığını korumak ve sanatçılar ile hayranlar arasında doğrudan bir ilişki sürdürmek olduğunu belirtiyor ve müziğin sadece dijital bir ürün değil, kültürel ve sosyal bir ifade biçimi olduğunu vurguluyor.
Yeni kurallara göre, yapay zeka tarafından üretilen parçalar ve diğer sanatçıları veya tarzları taklit etmek için yapay zeka araçlarının kullanımı yasaklanmıştır ve kullanıcılar şüpheli ihlalleri inceleme için bildirebilirler. Bu politika, dinleyicilerin Bandcamp'teki müziğin gerçek insanlar tarafından oluşturulduğuna güvenebilmelerini sağlamayı ve bağımsız müzisyenleri büyük miktarda yapay zeka tarafından üretilen içerik tarafından gölgede bırakılmaktan korumayı amaçlamaktadır. 2
Otonom araçlarla ilgili olaylar
Tesla'nın robotaksi programına ilişkin yakın zamanda yapılan bir analiz, otonom araçların insan sürücülere kıyasla önemli ölçüde daha sık kazalara karıştığını ortaya koydu.
Tesla'nın kendi güvenlik raporlarına ve düzenleyici verilere göre, filo yaklaşık 800.000 mil sürüş boyunca 14 kaza kaydetti; bu da yaklaşık her 57.000 milde bir kaza anlamına geliyor. Buna karşılık, insan sürücüler genellikle her 229.000 milde bir küçük kaza geçirir; bu da Tesla'nın robot taksilerinin federal güvenlik ölçütleri kullanıldığında yaklaşık dört kat daha sık ve sekiz kata kadar daha sık kaza yaptığını gösteriyor. 3
Apple'ın yanıltıcı haber özetleri Intel
BBC, Apple'ın yapay zeka tarafından oluşturulan ve "Apple Intelligence" olarak bilinen haber özetlerindeki yanlışlıklarla ilgili olarak Apple'a şikayette bulundu. iPhone bildirimleri olarak sunulan bu özetler, BBC'ye yanlış bilgiler atfediyordu.
Dikkat çekici bir örnekte, UnitedHealthcare CEO'su Brian Thompson'ın cinayetinden tutuklanan Luigi Mangione'nin intihar ettiği yönünde yanlış bir bildirim yer alıyordu; bu iddia BBC tarafından haber yapılmadı.
Daha sonra yaşanan hatalar arasında, final maçı gerçekleşmeden önce dart oyuncusu Luke Littler'ın PDC Dünya Dart Şampiyonası'nı kazandığını yanlış bir şekilde duyuran bir bildirim de yer aldı.
Bu sorunlara yanıt olarak Apple, yapay zeka özelliklerinin hala beta aşamasında olduğunu kabul etti ve haber ve eğlence uygulamaları için bildirim özetlerini geçici olarak devre dışı bırakma planlarını duyurdu. Şirket ayrıca, gelecekteki yanlış bilgilendirmeyi önlemek ve haber yayımının bütünlüğünü korumak amacıyla, bildirimlerin ne zaman yapay zeka tarafından oluşturulduğunu netleştirmek için bir yazılım güncellemesi yayınlanacağını belirtti. 4
Air Canada sohbet robotu arızası
Air Canada, yapay zekâ destekli sohbet robotunun bir müşteriyi vefat nedeniyle bilet ücreti iadeleri konusunda yanlış bilgilendirmesi üzerine yasal sorunlarla karşılaştı. Sohbet robotu, müşterinin rezervasyon tarihinden itibaren 90 gün içinde iade başvurusunda bulunabileceğini yanlış bir şekilde belirtmişti, ancak havayolu şirketi daha sonra gerçek politikasını gerekçe göstererek bunu yalanladı.
Müşteri şikayette bulundu ve bir mahkeme, Air Canada'nın web sitesindeki tüm bilgilerden sorumlu olduğuna hükmederek havayolunun para iadesini gerçekleştirmesini emretti. 5
Amazon Alexa'nın taraflı yanıtları
Amazon'un sesli asistanı Alexa, eski Başkan Donald Trump'a kıyasla Başkan Yardımcısı Kamala Harris'i destekleyen, görünüşte taraflı yanıtlar verdiği gerekçesiyle eleştirilere maruz kaldı.
Kullanıcılar Alexa'ya neden Harris'e oy vermeleri gerektiğini sorduğunda, asistan onun başarılarını ve ilerici ideallere olan bağlılığını vurguladı. Buna karşılık, aynı soru Trump için sorulduğunda, Alexa belirli siyasi figürleri desteklememe politikasını gerekçe göstererek bir onay vermekten kaçındı.
Amazon bu tutarsızlığı, Alexa'nın yapay zeka yeteneklerini geliştirmeyi amaçlayan yakın tarihli bir yazılım güncellemesinden kaynaklanan bir hataya bağladı. Şirket, sorunun tespit edildikten hemen sonra düzeltildiğini ve Alexa'nın herhangi bir siyasi parti veya adayı kayırmadan tarafsız bilgi sağlamak üzere tasarlandığını vurguladı. 6
IBM Watson Onkoloji
IBM'ün Teksas Üniversitesi Tıp Fakültesi ile ortaklığı, yapay zeka projelerinin başarısızlığına dair bilinen bir örnektir. StatNews'e göre, IBM'ün iç belgeleri, Watson'ın sıklıkla hatalı kanser tedavisi tavsiyeleri verdiğini, örneğin şiddetli kanaması olan bir hastaya kanamayı durdurucu ilaçlar reçete ettiğini göstermektedir.
Watson'ın eğitim verileri, gerçek hasta verileri yerine az sayıda varsayımsal kanser hastası verisi içeriyordu. Teksas Üniversitesi Sistem Yönetimi'nin bir raporuna göre, proje MD Anderson için 62 milyon dolara mal oldu ve hiçbir başarı elde edilemedi. 7
Amazon'un yapay zeka destekli işe alım aracı
Amazon'un kadınlara karşı ayrımcılık yapan yapay zekâ destekli işe alım aracı, yapay zekâ başarısızlığının bir başka popüler örneğidir. Araç, çoğunlukla erkek adayların özgeçmişlerinden oluşan bir veri kümesi üzerinde eğitilmiş ve kadın adayların daha az tercih edilebilir olduğu sonucuna varmıştır. 8
Yüz tanıma araçlarında ırk ve cinsel ayrımcılık
Guardian'ın yaptığı bir araştırma, sosyal medya platformlarının içerik önermek için kullandığı Microsoft, Amazon ve Google şirketlerine ait yapay zeka sistemlerinin, erkek ve kadın bedenlerini ele alırken belirgin bir cinsiyet önyargısı sergilediğini ortaya koydu.
Çalışma, kadınların fotoğraflarının erkeklerin benzer fotoğraflarına kıyasla daha sık "müstehcen" olarak etiketlendiğini ortaya koydu. Bir örnekte, Microsoft'in yapay zekası, ABD Ulusal Kanser Enstitüsü'nden alınan meme kanseri tarama görüntülerini potansiyel olarak cinsel içerikli olarak sınıflandırdı. 9
Bir diğer örnek ise, yapay zeka araştırmacılarının IBM, Microsoft ve Amazon'unkiler gibi ticari yüz tanıma teknolojilerinin koyu tenli kadınlarda kötü, açık tenli erkeklerde ise iyi performans gösterdiğini tespit etmesidir. 10
Yorum yapan ilk kişi olun
E-posta adresiniz yayınlanmayacak. Tüm alanlar gereklidir.