Liderlerin %65'i yapay zekâ ile ilgili riskleri etkili bir şekilde yönetmeye hazır olmadıklarını düşünüyor. 1 Yapay zeka uygulamalarını sorumluluk, güvenilirlik ve etik uygulamalar göz önünde bulundurarak geliştirmek ve ölçeklendirmek, herkes için işe yarayan bir yapay zeka oluşturmak için çok önemlidir.
Sorumlu yapay zeka (RAI) tasarımı için dört ilkeyi inceleyin ve bunları gerçekleştirmek için en iyi uygulamaları önerin:
Sorumlu Yapay Zekaya Adım Adım Kılavuz
- Yapay zekâ sistemlerini insan kullanıcıları ve onların deneyimlerini ön planda tutarak uygulayın. Daha iyi bir kullanıcı etkileşimi için tasarımın etik ilkeleri ve toplumsal değerleri içermesini sağlayın.
- Sistem etkinliğini ve risk yönetimini sağlamak amacıyla, geri bildirim ve hata oranları da dahil olmak üzere çeşitli ölçütleri izlemek için sorumlu bir yapay zeka kontrol paneli kullanın.
- Eğitim verilerini ve temel verileri doğruluk ve temsil edilebilirlik açısından dikkatlice inceleyin. Veri etiğini iyileştirmek ve yapay zeka politikanızın adalet denetimlerini uygulamasını sağlamak için önyargıları ve haksız sonuçları ele alın.
- Makine öğrenimi modellerinin sınırlamalarını anlayın ve bunları açıkça iletin. Korelasyonlara aşırı güvenmekten kaçının ve üretken yapay zekanın yeteneklerinin kapsamını kavrayın.
- Yapay zeka iş akışlarında, birim ve entegrasyon testleri de dahil olmak üzere, titiz testler uygulayın. Sistem güvenilirliği ve doğruluğu için sürekli izleme şarttır ve bu süreçte etik hususlar da dikkate alınmalıdır.
- Sistem performansını devreye alma sonrasında sürekli olarak izleyin, güncellemeleri AB Yapay Zeka Yasası'na göre düzenleyici uyumluluk açısından değerlendirin ve gizlilik ve güvenlik ilkelerine uyum sağlayın. İzleme uygulamalarınızı gizlilik, şeffaflık ve güvenliği vurgulayan yapay zeka politika standartlarıyla uyumlu hale getirin. Yaygın benimsemeyi ve kötü amaçlı saldırılara karşı direnci sağlarken hem acil hem de uzun vadeli sorunları ele alın.
1. Adalet
Yapay zekâ araçları, işe alım, kredi verme ve tıbbi teşhis gibi çeşitli karar alma süreçlerinde giderek daha fazla kullanılmaktadır. Bu karar alma sistemlerine yerleştirilen önyargılar, kamuoyu üzerinde geniş kapsamlı etkilere sahip olabilir ve farklı insan gruplarına karşı ayrımcılığa katkıda bulunabilir.
Gerçek hayattan örnekler
İşte gerçek dünya uygulamalarında yapay zeka önyargısına dair üç örnek:
- Kredi algoritmalarında cinsiyetçilik: 2019'da, Apple'ın kredi kartı algoritmasının kadınlara karşı ayrımcılık yaptığı ve cinsiyete göre farklı kredi limitleri sunduğu yönünde (kurucu ortak Steve Wozniak da dahil olmak üzere) birçok iddia ortaya atıldı.
- Yapay zekâ tabanlı işe alımlarda ırkçılık ve engellilere yönelik ayrımcılık: Harvard Business School ve Accenture'ın yakın tarihli bir raporuna göre, ABD'de 27 milyon işçi, otomatik ve yapay zekâ tabanlı işe alım sistemleri nedeniyle iş bulamıyor ve işe alınamıyor. 2 Bu “gizli işçiler” arasında göçmenler, mülteciler ve fiziksel engelliler de bulunmaktadır.
- Yüz tanıma sistemlerinde ırkçılık: Araştırmacılar tespit etti. 3 Bazı ticari yüz tanıma teknolojilerinin, örneğin Amazon'un veya Microsoft'in teknolojilerinin, koyu tenli kadınlarda düşük doğruluk oranına sahip olduğu, ancak açık tenli erkeklerde daha doğru sonuçlar verdiği görülmüştür (Şekil 1).
Bu önyargılı kararlar, proje tasarımından veya gerçek dünyadaki önyargıları yansıtan veri kümelerinden kaynaklanabilir. Sağlam ve herkesi kapsayan yapay zeka sistemleri oluşturmak için bu önyargıları ortadan kaldırmak çok önemlidir.
Adaleti sağlamak için en iyi uygulamalar
- Veri setinin nüfusu adil bir şekilde temsil edip etmediğini inceleyin.
- Modelin farklı gruplarda eşit derecede iyi performans gösterip göstermediğini belirlemek için veri kümesinin alt popülasyonlarını analiz edin.
- Adalet ilkesini göz önünde bulundurarak modeller tasarlayın ve sosyal bilimciler ile diğer konu uzmanlarına danışın.
- Sisteme dağıtım sonrasında makine öğrenimi modelini sürekli olarak izleyin . Modeller zamanla sapma gösterir, bu nedenle bir süre sonra sisteme önyargılar girebilir.
- Ölçülebilir hesap verebilirlik için yapay zeka politikanıza adalet ölçütlerini entegre edin.
Yapay zekâ önyargısı ve bunun nasıl düzeltileceği hakkında kapsamlı bir makalemiz var. Göz atmaktan çekinmeyin. Ayrıca yapay zekâ etiği hakkındaki makalemizi de okuyabilirsiniz.
2. Gizlilik
Yapay zekâ sistemleri genellikle büyük veri kümeleri kullanır ve bu veri kümeleri bireyler hakkında hassas bilgiler içerebilir. Bu durum, yapay zekâ çözümlerini veri ihlallerine ve hassas bilgilere ulaşmak isteyen kötü niyetli tarafların saldırılarına karşı savunmasız hale getirir:
- Kimlik Hırsızlığı Kaynak Merkezi'ne göre, 2021 yılında 1862 veri ihlali yaşandı; bu, 2017'deki önceki tüm zamanların en yüksek seviyesinden %23 daha yüksek. 4
Veri ihlalleri işletmelere maddi kayıpların yanı sıra itibar kaybına da neden olur ve hassas bilgileri ifşa edilen bireyleri de risk altına sokabilir.
Gerçek hayattan bir örnek
2024 yılının başlarında, İtalya'nın veri koruma otoritesi, yapay zekâ ile ilgili gizlilik ihlalleri nedeniyle cezalandırılan ilk İtalyan belediyesi olan Trento şehrine 50.000 € para cezası verdi. Trento, kameralar, mikrofonlar ve sosyal medya izleme gibi AB fonlu gözetim projelerinde yapay zekâ araçları kullanmış, ancak kişisel verileri düzgün bir şekilde anonimleştirmeyi başaramamış ve bilgileri üçüncü taraflarla yasa dışı olarak paylaşmıştı.
Denetleme kurulu, GDPR kapsamında şeffaflık ve orantılılık ihlallerini gerekçe göstererek toplanan tüm verilerin silinmesini emretti. Bu olay, 2023'teki geçici ChatGPT yasağı ve 2024 sonlarında OpenAI'ye verilen para cezası gibi eylemlerin ardından İtalya'nın yapay zeka ile ilgili gizlilik kurallarını giderek daha sıkı bir şekilde uygulamaya koymasını yansıtıyor. 5
Gizliliği sağlamaya yönelik en iyi uygulamalar
- Verileri hassasiyetlerine göre değerlendirin ve sınıflandırın, hassas verileri izleyin.
- Kuruluş içinde veri erişim ve kullanım politikası geliştirin. En az ayrıcalık ilkesini uygulayın.
3. Güvenlik
Yapay zekâ sistemlerinin güvenliği, saldırganların sisteme müdahale etmesini ve amaçlanan davranışını değiştirmesini önlemek için kritik öneme sahiptir. Yapay zekânın özellikle toplumun kritik alanlarında artan kullanımı, kamu güvenliğini önemli ölçüde etkileyebilecek güvenlik açıkları ortaya çıkarabilir.
Sistem tasarımı sırasında güçlü güvenlik prensiplerinin uygulanması, bu güvenlik açıklarını en aza indirmeye yardımcı olur. Ayrıca, sağlam bir yapay zeka politikası tehdit modellemesi, sızma testi ve kırmızı ekip çalışması gerektirir.
Aşağıdaki örnekleri inceleyin:
- Araştırmacılar, yola küçük etiketler yapıştırarak sürücüsüz bir arabanın ters şeritte gitmesini sağlayabileceklerini gösterdiler.
Bu düşmanca saldırılar şunları içerebilir:
- Eğitim veri kümelerine yanıltıcı veriler enjekte ederek veri zehirlenmesi oluşturmak .
- Modellere erişerek ve modelleri manipüle ederek model zehirlenmesi .
Diğerlerinin yanı sıra, yapay zeka modelinin istenmeyen şekillerde davranmasına neden olabilir. Yapay zeka teknolojisi geliştikçe, saldırganlar yeni yöntemler bulacak ve yapay zeka sistemlerini savunmanın yeni yolları geliştirilecektir.
Gerçek hayattan bir örnek
İspanya, AB Yapay Zeka Yasası'na uygun olarak, deepfake gibi yapay zeka tarafından üretilen tüm içeriklerin açıkça etiketlenmesini gerektiren bir yasa tasarısını onayladı. Amaç, şeffaflığı artırmak ve savunmasız grupları korumaktır. Yasa ayrıca yapay zeka yoluyla bilinçaltı manipülasyonunu yasaklıyor ve ihlaller için ağır cezalar öngörüyor. Yasa şunları gerektiriyor:
- Etiketleme : Yapay zeka tarafından oluşturulan tüm içerikler (örneğin, resimler, videolar, metinler) açıkça bu şekilde işaretlenmelidir.
- Deepfake düzenlemesi : Sentetik medya, yapay kökenini açıklamak zorundadır.
- Manipülasyon yasağı : Yapay zeka sistemleri, özellikle küçük yaştaki veya savunmasız bireyleri istismar etmek için bilinçaltı tekniklerini kullanamaz.
Kuralların ihlal edilmesi durumunda, model sağlayıcıların 35 milyon Euro'ya kadar veya küresel cironun %7'sine kadar ödeme yapması bekleniyor. Yeni bir ulusal kurum olan AESIA, uyumluluğu izleyecek ve uygulayacak.
Bu yasa, kullanıcıların sentetik içerikle etkileşimde bulunduklarını bilmelerini sağlayarak ve zararlı manipülasyonu engelleyerek, sorumlu yapay zekanın şeffaflık ve güvenlik ilkelerini güçlendiriyor. 6
Güvenliği sağlamak için en iyi uygulamalar
- Bir düşmanın sisteme saldırmak için bir teşvike sahip olup olmayacağını ve böyle bir saldırının potansiyel sonuçlarını değerlendirin.
- Organizasyonunuz içinde, sistemdeki güvenlik açıklarını tespit edip gidermek için düşman rolü üstlenecek bir "kırmızı ekip" oluşturun.
- Yapay zekâ saldırıları ve yapay zekâ güvenliği alanındaki yeni gelişmeleri takip edin. Bu, sürekli gelişen bir araştırma alanı olduğundan, gelişmeleri takip etmek önemlidir.
4. Şeffaflık
Sağlık ve sigorta gibi işletmelerin sektör standartlarına veya hükümet düzenlemelerine uyması gereken bazı sektörlerde yapay zeka sistemlerinin şeffaflığı, yorumlanabilirliği veya açıklanabilirliği şarttır. Bununla birlikte, yapay zeka modellerinin neden belirli çıktılar ürettiğini yorumlayabilmek, tüm işletmelerin ve kullanıcıların yapay zeka sistemlerini anlamaları ve onlara güvenmeleri için önemlidir.
Şeffaf bir yapay zeka sistemi işletmelere şu konularda yardımcı olabilir:
- İşletme açısından kritik önem taşıyan kararları açıklayın ve savunun,
- "Ya şöyle olsaydı?" senaryoları oluşturun,
- Modellerin amaçlandığı gibi çalıştığından emin olun.
- Beklenmedik sonuçlar ortaya çıkması durumunda hesap verebilirliğin sağlanması gerekmektedir.
Gerçek hayattan bir örnek
ABD merkezli yüz tanıma şirketi Clearview AI, kolluk kuvvetleri ve özel müşteriler için bireyleri tanımlamak amacıyla internetten topladığı 30 milyardan fazla görüntüden oluşan bir veri tabanı oluşturdu. Şirket, GDPR kapsamındaki gizlilik ve şeffaflık ilkelerini ihlal ettiği gerekçesiyle Hollanda Veri Koruma Kurumu tarafından 30,5 milyon Euro para cezasına çarptırıldı. Bu ihlaller arasında şunlar yer alıyor:
- Onay alınmadan : Kullanıcıların bilgisi veya izni olmadan biyometrik veriler (yüz özellikleri) toplandı.
- Şeffaflık eksikliği : Kişilere görüntülerinin nasıl kullanıldığı veya nasıl işlendiği konusunda bilgi verilmedi.
- Hassas veriler : Veritabanında reşit olmayan kişilerin görüntüleri yer almaktadır.
- Uygunsuzluk : AB'de yerel temsilci veya yasal veri tabanı olmaksızın faaliyet göstermek. 7
Kullanım örnekleri
Açıklanabilir yapay zeka, aşağıdakiler gibi çeşitli sektörlerdeki karar alma süreçlerinde şeffaflığı ve güveni artırmaya yardımcı olabilir:
- Yapay zekanın hastalık teşhisleri ve tedavi önerilerinin ardındaki mantığı anlamada hekimlere yardımcı olarak sağlık hizmetlerine katkı sağlamak.
- Şeffaflık sağlayarak, paydaşlar arasında güveni artırarak, dolandırıcılık tespiti ve yatırım danışmanlığı yoluyla finansman sağlamak .
- Otonom araçlarda karar alma süreçlerini netleştirerek, güvenliği ve güvenilirliği artırarak otomotiv sektörüne katkı sağlıyor.
- Yapay zeka destekli müşteri segmentasyonu, satış tahmini ve reklam hedeflemesi için şeffaf içgörüler sunarak pazarlama ve satış süreçlerini destekler ve stratejik kararları teşvik eder.
- Yapay zekanın tehdit tespitinin ardındaki mantığı açıklayarak siber güvenlik yönetimini iyileştirmek.
Şeffaflığı sağlamak için en iyi uygulamalar
- Modelin istenen performansını sağlamak için gerekli olan az sayıda girdi kullanın. Bu, değişkenler arasındaki korelasyonun veya nedenselliğin nereden kaynaklandığını doğru bir şekilde belirlemeyi kolaylaştırabilir.
- Açıklanabilir yapay zeka yöntemlerine, yorumlanması zor olan modellere (yani kara kutu modellerine) göre öncelik verilmelidir.
- Yorumlanabilirlik düzeyine ilişkin gerekli hususları alan uzmanları ve paydaşlarla görüşün.
Yeni unsur: Yeşil Yapay Zeka
Yeşil yapay zeka, yapay zeka sistemlerinin çevresel etkisini azaltmaya odaklanmaktadır. Yapay zeka modellerinin eğitilmesi ve çalıştırılması önemli miktarda işlem gücü gerektirir ve bu da yüksek enerji tüketimine yol açar. Bu durum hem maliyetleri hem de karbon emisyonlarını artırabilir.
Yapay zekâ kullanımının artmasıyla birlikte enerji verimliliği daha da önem kazanıyor. İşletmeler, performansı korurken kaynak kullanımını azaltmak için modellerin nasıl oluşturulduğunu, eğitildiğini ve dağıtıldığını optimize etmeye başlıyor.
Yeşil yapay zeka yaklaşımı işletmelere şu konularda yardımcı olabilir:
- Enerji tüketimini ve işletme maliyetlerini azaltın,
- Yapay zeka iş yüklerinin karbon ayak izini azaltmak,
- Model eğitiminin ve çıkarımının verimliliğini artırın,
- Yapay zeka girişimlerini sürdürülebilirlik hedefleriyle uyumlu hale getirin.
Gerçek hayattan bir örnek
DeepMind, veri merkezlerindeki soğutma sistemlerini optimize etmek için makine öğrenimini kullandı. Sistem, sıcaklık, güç tüketimi ve ekipman performansı gibi verileri analiz ederek soğutmayı otomatik olarak ayarlıyor.
Bu durum şu sonuçlara yol açtı:
- Soğutma enerjisi kullanımında %40'a varan azalma,
- Veri merkezlerindeki toplam enerji tüketiminde yaklaşık %15'lik bir azalma.
Bu örnek, Yeşil Yapay Zekanın büyük ölçekli ortamlarda ölçülebilir sonuçlar vermeye başladığını göstermektedir. 8
Kullanım örnekleri
Yeşil yapay zeka aşağıdakiler de dahil olmak üzere çeşitli alanlarda uygulanabilir:
- Veri merkezi optimizasyonu: Yapay zeka sistemleri, enerji israfını azaltmak için soğutma ve güç kullanımını ayarlar.
- Verimli model tasarımı: Daha küçük modeller ve sıkıştırma teknikleri, hesaplama gereksinimlerini azaltır.
- İş yükü planlaması: Görevler, enerji talebinin düşük olduğu veya yenilenebilir enerjinin mevcut olduğu zamanlarda çalıştırılır.
- Bulut optimizasyonu: Yapay zeka, aşırı kaynak tahsisini önlemek için kaynakları dinamik olarak tahsis etmeye yardımcı olur.
- Uç Yapay Zeka: Verileri kaynağa daha yakın bir yerde işlemek, veri aktarımını ve enerji kullanımını azaltır.
Yeşil Yapay Zekayı Sağlamak İçin En İyi Uygulamalar
- Gereksiz yere büyük modeller yerine verimli model mimarileri kullanın.
- Tekrarlama sayısını azaltarak ve daha kaliteli veriler kullanarak eğitimi optimize edin.
- Yapay zeka iş yüklerinin enerji tüketimini izleyin.
- Yenilenebilir enerji kullanan bulut bölgelerini veya sağlayıcılarını tercih edin.
- Mümkün olduğunda sıfırdan eğitim yapmak yerine önceden eğitilmiş modelleri yeniden kullanın.
Vade senedi
Karbon emisyonuna duyarlı iş yükü planlaması gibi bazı Yeşil Yapay Zeka uygulamaları hala gelişme aşamasındadır ve henüz yaygın olarak standartlaştırılmamıştır. Bununla birlikte, mevcut uygulamalar önemli verimlilik kazanımlarının elde edilebileceğini zaten göstermektedir.
Sorumlu yapay zeka araçları
Sorumlu yapay zeka yazılım pazarı, aşağıdakiler gibi sorumlu yapay zeka çerçeveleri sunan çeşitli araçları içermektedir:
- Yapay zeka yönetişim araçları
- Yapay zeka güvenlik önlemleri
- MLOps araçları
- LLMOps araçları
- Açık kaynaklı sorumlu yapay zeka kütüphaneleri
Veri bilimi danışmanları ve yapay zeka danışmanları hakkında daha fazla bilgi için veri odaklı yapay zeka hizmetleri listelerimize göz atabilirsiniz. Ayrıca, işletmelerin sorumlu yapay zeka uygulamalarını benimsemelerine yardımcı olabilecek TensorFlow'un Sorumlu Yapay Zeka Araç Seti ekosistemini de inceleyebilirsiniz.
Bu araçların etik değerlerle uyumlu olmasını sağlamak için, kuruluşlar güvenlik, adalet, şeffaflık ve hesap verebilirlik konularını kapsayan yapay zeka politikalarına uygun araçlar benimsemelidir.
Bir yapay zeka aracının sorumlu olup olmadığını nasıl tespit edebiliriz?
İşletme kullanıcıları, insan kaynakları ekibinin başvuru profillerini incelemek için LLM tabanlı bir algoritma kullanması gibi yapay zeka araçlarından yararlanabilir ve deneyim ve eğitim temelinde özgeçmişleri filtreleyerek işe alım sürecini hızlandırabilir. Ancak, araç adalet ilkelerini ihlal ederse, belirli gruplara karşı ayrımcılık yapabilir. Bu önyargının farkında olmayan kullanıcılar, adayları cinsiyet veya ırk temelinde reddedebilir ve bu da kuruluş için etik ve itibar sorunlarına yol açabilir.
Bu tür sorunları önlemek için şirketler, sorumlu yapay zeka ilkeleriyle uyumlu araçlar benimsemelidir. Etik yapay zeka kullanımını sağlamak için kıyaslama ölçütlerini değerlendirebilir, kullanıcı yorumlarını inceleyebilir ve gerçek hayattan örnekler veya vaka çalışmaları inceleyebilirler. Aşağıdaki tabloda, en iyi LLM'lerden bazılarının kıyaslama sonuçları gösterilmektedir:
Sistemler, genel olarak ve her bir tehlike için 5 puanlık bir ölçek kullanılarak değerlendirilir: Zayıf (1), Orta (2), İyi (3), Çok İyi (4) ve Mükemmel (5). Puanlar, değerlendirme standartlarını karşılamayan yanıtların yüzdesine göre belirlenir. 9
Sorumlu yapay zeka alanındaki son gelişmeler
Hizalama hatası erken uyarı sistemi
OpenAI tarafından, daha güvenli ve sorumlu yapay zeka sistemlerine doğru umut vadeden bir adım olarak, yanlış hizalama erken uyarısı adı verilen yeni bir teknik tanıtıldı. Bu yöntem, bir yapay zeka modelinin zararlı çıktılar üretmeden önce içsel uyarı işaretlerini tespit etmeye odaklanmaktadır. 10
Erken çalışma sistemindeki hizalama sorunları nasıl çözülür?
Bu sistem, güvenli olmayan davranışlarla ilişkili olan "toksik kişilik" gibi belirli içsel özellikleri belirleyerek çalışır. Geliştiriciler, eğitim veya dağıtım sırasında bu özelliklerin aktivasyon seviyelerini izleyerek, bir modelin uyumsuz davranışlara doğru kaymaya başladığı zaman erken uyarılar alabilirler.
Bu tür uyarı sinyalleri ortaya çıktığında, müdahaleler şu şekillerde uygulanabilir:
- Zararlı aktivasyonu doğrudan bastırmak
- Aktivasyon yönlendirmesi uygulamak, modelin içsel yönünü güvenli olmayan kalıplardan uzaklaştıran bir tekniktir.
Bu yaklaşım, yalnızca dış çıktıları izlemeye güvenmek yerine, proaktif risk azaltımına olanak tanır.
Sorumlu yapay zeka için erken aşamada uyumsuzluk
Bu gelişme, sorumlu yapay zekanın temel ilkelerini desteklemektedir:
- Şeffaflık , modelin iç davranışını yorumlanabilir hale getirerek sağlanır.
- Erken müdahaleyi mümkün kılarak güvenlik sağlanır .
- Hesap verebilirlik , insan gözetimi için net sinyaller sunarak sağlanır.
Bu, gerçek zamanlı izleme ve kontrol mekanizmalarını model geliştirme sürecine entegre etme yönündeki artan bir eğilimi yansıtmaktadır. Daha geniş kapsamlı güvenlik Ar-Ge çalışmalarının bir parçası olarak, bu teknik, eğitim sırasında uyumsuzlukları yakalama ve düzeltme yeteneğini geliştirerek, uluslararası yapay zeka yönetişim çerçeveleri ve tasarımla güvenlik standartlarıyla uyum sağlamaktadır.
Yapay Zeka Güvenliği Zirvesi
Yapay Zeka Güvenliği Zirvesi, gelişmiş "Sınır Yapay Zeka" sistemlerinin güvenliği, riskleri ve düzenlemelerine odaklanan önde gelen uluslararası bir konferanstır. İlk etkinlik, Kasım 2023'te İngiltere'deki Bletchley Park'ta gerçekleştirilmiş olup, küresel yapay zeka güvenliği çalışmalarını koordine etmek amacıyla 28 ülkeden hükümetleri, yapay zeka şirketlerini, sivil toplumu ve uzmanları bir araya getirmiştir.
Başlıca Sonuçlar
- Bletchley Deklarasyonu: Katılımcı ülkeler, ortak güvenlik ilkelerine dayalı olarak güvenli, insan merkezli, güvenilir ve sorumlu yapay zekâ geliştirmeye kararlıdır.
- Uluslararası İşbirliği: Gelişmiş yapay zekanın kötüye kullanımı, toplumsal bozulma ve kontrol kaybı gibi riskleri azaltmak için acil işbirliğinin önemi vurgulandı.
- Şeffaflık ve Düzenleme: Yapay zekâ gelişmelerine ayak uydurmak için şeffaflık, titiz güvenlik testleri ve uyarlanabilir düzenleyici çerçeveler çağrısında bulunuldu.
Amaç ve Vizyon
Zirve, çok paydaşlı iş birliğini ve etik yönetişimi teşvik ederek sorumlu yapay zeka gelişimini desteklemektedir. Yapay zekanın topluma fayda sağlarken zararı en aza indirmeyi amaçlayan zirve, insan güvenliğini, etiği ve kapsayıcılığı önceliklendiren yapay zeka sistemlerinin tasarlanması, uygulanması ve yönetilmesine yönelik küresel sorumluluğu vurgulamaktadır.
Yorum yapan ilk kişi olun
E-posta adresiniz yayınlanmayacak. Tüm alanlar gereklidir.