Bize Ulaşın
Sonuç bulunamadı.

Üretken Yapay Zekanın 10 Riski ve Bunları Azaltma Yolları

Cem Dilmegani
Cem Dilmegani
güncellendi Mar 2, 2026
Bakınız etik normlar

Endüstrilerin inovasyon ve otomasyon için üretken yapay zekaya öncelik vermesiyle potansiyeli de artıyor. Bununla birlikte, doğruluk ve etik kaygılar gibi üretken yapay zekanın riskleri devam ediyor. Bu zorlukların ele alınması, yapay zekanın insanlığa fayda sağlaması için çok önemlidir.

Üretken yapay zekanın en büyük 10 riskini ve bunları azaltmaya yönelik adımları inceleyin:

Model güvenilirliği ve çıktı bütünlüğü riskleri

1. Üretken yapay zekanın doğruluk riskleri

ChatGPT gibi üretken yapay zeka araçları, devasa veri kümeleri üzerinde eğitilmiş büyük dil modellerine dayanır. Bir soruyu yanıtlamak veya belirli bir uyarıya yanıt oluşturmak için bu modeller, uyarıyı yorumlar ve eğitim verilerine dayanarak bir yanıt üretir. Eğitim veri kümeleri milyarlarca parametreden oluşsa da, bunlar sonlu havuzlardır ve üretken modeller zaman zaman hayali yanıtlar üretebilir.

Üretken yapay zeka modellerinin yol açabileceği birçok potansiyel doğruluk riski vardır:

  • Özgüllüğe göre genelleme: Üretken modeller, eğitildikleri veriler genelinde genelleme yapacak şekilde tasarlandıkları için, belirli, incelikli veya örneklem dışı sorgular için her zaman doğru bilgi üretmeyebilirler.
  • Doğrulama eksikliği : Üretken modeller, kulağa mantıklı gelen ancak yanlış veya hatalı bilgiler üretebilir. Harici doğrulama veya gerçek kontrolü olmadan, kullanıcılar yanıltılabilir.
  • Doğruluk kaynağı yok : Üretken yapay zekanın doğasında var olan bir "doğruluk kaynağı" yoktur. İnsanlar gibi bağlam, etik veya ayırt etme yeteneğiyle şeyleri "bilmez". Temel bir anlayışa değil, verilerdeki kalıplara dayalı olarak çıktılar üretir.

Halüsinasyon ve doğruluk riskleri nasıl azaltılır?

Üretken yapay zekanın doğruluk risklerini azaltmak, teknik ve prosedürel stratejilerin bir kombinasyonunu gerektirir. İşte bu riskleri ele almanın bazı yolları:

  • Veri kalitesi ve çeşitliliği : Yapay zekanın yüksek kaliteli, çeşitli ve temsili verilerle eğitilmesini sağlayın. Bu sayede, yapay zekanın geniş bir sorgu yelpazesinde doğru sonuçlar üretme olasılığı artar.
  • Düzenli model güncellemeleri : Doğruluğunu artırmak ve değişen bilgi ortamlarına uyum sağlamak için yapay zeka modelini sürekli olarak yeni verilerle güncelleyin.
  • Dış doğrulama : Üretken yapay zekanın çıktılarını, özellikle kritik uygulamalar için, her zaman diğer güvenilir kaynaklarla doğrulayın. Gerçek kontrolü ve alana özgü doğrulama şarttır.
  • Kullanıcı eğitimi : Kullanıcılara yapay zekanın güçlü ve zayıf yönleri hakkında bilgi verin. Kullanıcılar, yapay zekanın çıktılarına ne zaman güvenmeleri gerektiğini ve ne zaman ek doğrulama aramaları gerektiğini anlamalıdır.

Sınırlamalar

Yakın zamanda yayınlanan bir makaleye göre, dil modellerindeki yanılsamalar , bu modellerin eğitim ve değerlendirme süreçlerinin istatistiksel bir sonucudur. Ön eğitim sırasında, modeller dil dağılımını yaklaşık olarak belirlemek için çapraz entropiyi optimize eder; bu da matematiksel olarak bazı makul ancak yanlış çıktılar üretecekleri anlamına gelir.

Hata içermeyen eğitim verileriyle bile, halüsinasyonlar doğal belirsizlikten, sınırlı verilerden (örneğin, nadir "tekil" gerçekler) veya model sınırlamalarından kaynaklanır. 1 Bu nedenle halüsinasyonları tamamen ortadan kaldırmak neredeyse imkansızdır; amacımız kullanıcıları doğru bir şekilde bilgilendirmek ve halüsinasyonları en aza indirmeye çalışmak olmalıdır .

2. Üretken yapay zekanın önyargı riskleri

Üretken yapay zekanın önyargıları sürdürme veya hatta artırma potansiyeli de önemli bir endişe kaynağıdır. Doğruluk risklerine benzer şekilde, üretken modeller belirli bir veri kümesi üzerinde eğitildiğinden, bu kümedeki önyargılar modelin de önyargılı içerik üretmesine neden olabilir.

Üretken yapay zekanın bazı önyargı riskleri şunlardır:

  • Temsil yanlılığı : Eğer azınlık grupları veya bakış açıları eğitim verilerinde yeterince temsil edilmiyorsa, model bu grupları yansıtan çıktılar üretmeyebilir veya onları yanlış temsil edebilir.
  • Mevcut önyargıların güçlendirilmesi : Eğitim verilerindeki başlangıçtaki bir önyargı küçük olsa bile, yapay zeka, kalıpları ve popüler trendleri optimize etme şekli nedeniyle bazen bu önyargıyı güçlendirebilir.

Örneğin, 2018'deki 117 milyon parametreli modele kıyasla 280 milyar parametreli bir modelin toksisitesinde %29'luk bir artış görüldü. Yapay zeka sistemleri büyüdükçe, önyargı riskleri de artar. Aşağıdaki şekil, daha büyük modellerin daha toksik tepkiler ürettiği bu eğilimi göstermektedir.

Şekil 1: Stanford Yapay Zeka Endeksi Raporu 2

Önyargı riskleri nasıl azaltılır?

  • Çeşitli eğitim verileri, temsil yanlılığını azaltmaya yardımcı olabilir.
  • Model çıktılarının sürekli izlenmesi ve değerlendirilmesi, sapmaların belirlenmesine ve düzeltilmesine yardımcı olabilir.
  • Yapay zekâ geliştirme sürecinde etik standartların oluşturulması ve denetimin sağlanması, önyargıyı en aza indirmeye ve sorumlu kullanımı teşvik etmeye yardımcı olur.

3. Düşmanca ve manipülasyon riskleri

Düşmanca girdiler, yapay zekâ modellerini yanlış veya zararlı çıktılar üretmeye yönlendirmek için kasıtlı olarak tasarlanmış girdileri ifade eder. Üretken yapay zekâ bağlamında, bu tür girdiler modeli incelikle manipüle ederek önyargılı, yanlış veya hatta saldırgan içerik üretmesine neden olabilir; bu da doğruluk, etik ve güvenlik ile ilgili mevcut riskleri artırabilir. Aşağıdakiler bu tür tehditlere örneklerdir:

  • Yanlış bilgi yayılımı : Saldırganlar, modeldeki zayıf noktaları kullanarak yanıltıcı veya manipülatif anlatılar üretecek şekilde komutlar tasarlayabilirler.
  • Zehirli içerik üretimi : Dikkatlice formüle edilmiş sorgular, güvenlik mekanizmalarını atlayarak modelin saldırgan veya uygunsuz içerik üretmesine neden olabilir.
  • Model istismarı : Saldırgan teknikler, hassas eğitim verilerini elde etmek veya çıktıları istenmeyen şekillerde etkilemek için kullanılabilir ve bu da gizlilik ve fikri mülkiyet endişelerine yol açabilir.

Manipülasyonu nasıl önleyebiliriz?

  • Model eğitimi : Modelleri kötü amaçlı uyarılara maruz bırakmak ve güvenli bir şekilde yanıt vermeyi öğretmek için düşman eğitim tekniklerini dahil edin.
  • Hızlı filtreleme ve temizleme : Zararlı girdi kalıplarını tespit etmek ve engellemek için ön işleme katmanları uygulayın.
  • Sürekli değerlendirme : Modellerin dayanıklılığını değerlendirmek ve savunmalarını geliştirmek için düzenli olarak bilinen düşman girdileriyle test edin.

Veri koruma ve güvenlik riskleri

4. Üretken yapay zekanın veri gizliliği ve güvenlik riskleri

Üretken yapay zeka teknolojisi, özellikle büyük miktarda veri üzerinde eğitilmiş modeller, hassas verilerin gizliliği konusunda belirgin riskler taşımaktadır. İşte başlıca endişelerden bazıları:

  • Veri sızıntısı : Bir yapay zeka yeni içerik üretmek üzere tasarlanmış olsa bile, eğitim verilerinin parçalarını istemeden yeniden üretme olasılığı vardır. Eğitim verileri hassas bilgiler içeriyorsa, bunların ifşa edilme riski vardır.
  • Kişisel verilerin kötüye kullanımı : Üretken yapay zeka, uygun anonimleştirme yapılmadan veya gerekli izinler alınmadan kişisel müşteri verileri üzerinde eğitilirse, veri gizliliği düzenlemelerini ve etik standartları ihlal edebilir.

5. Veri kaynağı sorunları

Üretken modellerin çok büyük miktarda içerik üretebildiği göz önüne alındığında, belirli bir veri parçasının kaynağını izlemek zor olabilir. Bu durum, veri haklarının ve kaynağının belirlenmesinde zorluklara yol açabilir.

Bununla birlikte, sentetik veri oluşturmak için üretken modeller kullanmak, hassas verileri korumanın iyi bir yoludur. Veri güvenliği tehditlerini azaltmak için atılabilecek bazı adımlar şunlardır:

  • Diferansiyel gizlilik : Diferansiyel gizlilik gibi teknikler, modelin çıktılarının herhangi bir tek girdiye yakından bağlı olmamasını sağlamak için eğitim sürecinde kullanılabilir. Bu, eğitim veri setindeki bireysel veri noktalarının korunmasına yardımcı olur.
  • Sentetik eğitim veri kümeleri: Veri güvenliği risklerini azaltmak için, üretken modeller daha önce yapay zeka modelleri tarafından oluşturulan sentetik veriler üzerinde eğitilebilir.
  • Veri maskeleme : Yapay zeka modellerini eğitmeden önce, veri kümeleri kişisel olarak tanımlanabilir bilgileri kaldırmak veya değiştirmek için işlenebilir.
  • Düzenli denetimler ve incelemeler : Yapay zeka çıktılarının olası veri sızıntıları veya ihlalleri açısından düzenli olarak denetlenmesi, erken tespit ve düzeltmeye yardımcı olabilir.

Intelfikri mülkiyet riskleri

Üretken yapay zeka, geleneksel fikri mülkiyet (IP) normları ve düzenlemeleri için çeşitli zorluklar ortaya koymaktadır. Ayrıca, yapay zeka tarafından üretilen içeriğin telif hakkı korumasına uygunluğu ve ihlali konusunda endişeler bulunmaktadır. Üretken yapay zeka bağlamında içeriğin fikri mülkiyet (IP) haklarıyla ilgili iki temel endişenin neler olduğunu öğrenin.

Yapay zekâ tarafından üretilen içeriğin karmaşık doğası göz önüne alındığında, bu fikri mülkiyet endişelerini gidermek zordur. Örneğin, aşağıdaki şekildeki Yeni Rembrandt tablosuna bakın. Orijinal bir Rembrandt tablosundan ayırt etmek zordur.

Şekil 2: Yeni Rembrandt 3

Yapay zekâ teknolojisinin fikri mülkiyetle ilgili başlıca risk ve endişelerinden bazıları şunlardır:

6. Özgünlük ve mülkiyet

Üretken bir yapay zekâ bir müzik, sanat eseri veya yazı oluşturursa, telif hakkı kime aittir? Yapay zekânın geliştiricisine mi, onu kullanan kullanıcıya mı, yoksa doğrudan hiçbir insan tarafından yaratılmadığı ve bu nedenle telif hakkına tabi olmadığı mı söylenebilir? Yapay zekâ üretimi söz konusu olduğunda bunlar sorunlu kavramlardır.

7. Lisanslama ve kullanım hakları

Benzer şekilde, yapay zekâ tarafından üretilen içerik nasıl lisanslanmalıdır? Eğer bir yapay zekâ, belirli şartlar altında (örneğin Creative Commons) lisanslanmış eğitim verilerine dayanarak içerik oluşturuyorsa, yeni içeriğe hangi haklar uygulanır?

Üretken modeller, istemeden telif hakkıyla korunan eserlere benzeyen çıktılar üretebilir. Çok büyük miktarda veri üzerinde eğitildikleri için, istemeden tescilli dizileri veya kalıpları yeniden oluşturabilirler.

İntihal tespiti : Yapay zekâ tarafından üretilen içeriğin çoğalması, intihal tespitini daha zor hale getirebilir. Benzer veri kümeleri üzerinde eğitilmiş iki yapay zekâ modeli benzer çıktılar üretirse, orijinal içerik ile intihal edilmiş materyal arasında ayrım yapmak karmaşık hale gelir.

Örneğin, Universal Music Group ve Concord Music Group önderliğindeki büyük müzik yayıncılarından oluşan bir koalisyon, yapay zeka şirketi Anthropic aleyhine 3 milyar dolardan fazla tazminat talebiyle yeni bir telif hakkı davası açtı.

Şikayette, Anthropic adlı kişinin, Claude gibi yapay zeka modellerini eğitmek için şarkı sözleri, notalar ve besteler de dahil olmak üzere 20.000'den fazla telif hakkıyla korunan müzik eserini yasa dışı olarak indirdiği ve kullandığı iddia ediliyor.

Dava dilekçesinde ayrıca Anthropic'un CEO'su Dario Amodei ve kurucu ortağı Benjamin Mann da sanık olarak yer alıyor ve daha önce başka bir telif hakkı davasından (Bartz v. Anthropic) elde edilen kanıtların telif hakkıyla korunan materyallerin kapsamlı bir şekilde izinsiz indirildiğini ortaya koyduğu bir davayı takip ediyor. 4

Fikri mülkiyet riskleri nasıl azaltılır?

  • Net yönergeler ve politikalar : Yapay zekanın içerik oluşturma ve fikri mülkiyetle ilgili konularda kullanımına ilişkin net yönergeler oluşturmak, bu karmaşık ortamda yol göstermeye yardımcı olabilir.
  • İşbirliğine dayalı çalışmalar : Sektör kuruluşları, hukuk uzmanları ve teknoloji uzmanları, yapay zeka bağlamında fikri mülkiyet normlarını yeniden tanımlamak için işbirliği yapmalıdır.
  • Teknolojik çözümler : Yapay zeka tarafından oluşturulan içeriğin kaynağını ve orijinalliğini izlemek ve doğrulamak için zincirleme ve diğer teknolojiler kullanılabilir.

Toplumsal ve etik riskler

Yıllar boyunca yapay zeka etiği üzerine önemli bir tartışma yaşandı. Bununla birlikte, üretken yapay zekanın etik kaygıları nispeten yeni bir konudur. Bu tartışma, özellikle OpenAI'den ChatGPT ve DALL-E gibi çeşitli üretken modellerin tanıtılmasıyla ivme kazandı.

8. Deepfake'ler

Üretken yapay zekâ ile ilgili en büyük etik endişelerden biri de deepfake'lerdir. Üretken modeller artık kişilerin fotogerçekçi görüntülerini , videolarını ve hatta seslerini üretebiliyor. Bu tür yapay zekâ tarafından üretilen içeriklerin gerçek medyadan ayırt edilmesi zor veya imkansız olabilir ve ciddi etik sonuçlar doğurabilir. Bu içerikler yanlış bilgi yayabilir, kamuoyunu manipüle edebilir, hatta bireyleri taciz edebilir veya karalayabilir.

Örneğin, UNICEF, INTERPOL ve ECPAT küresel ağının yaptığı bir çalışma, 11 ülkede en az 1,2 milyon çocuğun son bir yılda görüntülerinin yapay zeka tarafından oluşturulmuş müstehcen deepfake'lere dönüştürüldüğünü bildirdiğini ve bazı ülkelerde bu oranın yaklaşık 25 çocuktan birine denk geldiğini gösteriyor.

UNICEF, çocuklara yönelik etkilerle ilgili endişelerini dile getirdi ve yapay zeka teknolojisinin bu tür kötüye kullanımını önlemek ve azaltmak için hükümetlerden, yapay zeka geliştiricilerinden ve dijital platformlardan daha geniş yasal tanımlar ve daha güçlü güvenceler talep etti. 5

İnsan yaratıcılığının aşınması

Yaratıcı işlerde yapay zekaya aşırı bağımlılık, insan yaratıcılığının ve özgünlüğünün değerini potansiyel olarak azaltabilir. Yapay zeka tarafından üretilen içerik norm haline gelirse, kültürel ve yaratıcı eserlerin homojenleşmesine yol açabilir.

9. İşsizliğin etkisi

Büro işleri, hukuk hizmetleri, finans ve veri işleme gibi rutin, yapılandırılmış görevler etrafında kurulu sektörler, yapay zekâ destekli otomasyona en fazla maruz kalan sektörlerdir.

Özellikle genç çalışanlar için giriş seviyesi pozisyonlar, öngörülebilir, kural tabanlı görevlerin otomasyonunun daha kolay olması nedeniyle özellikle savunmasızdır. Buna karşılık, sağlık ve eğitim gibi sektörler, insan etkileşiminin karmaşıklığı nedeniyle daha az risk altındadır. En çok risk altında olan sektörleri ve yapay zeka uzmanlarının tahminlerini öğrenmek için "Yapay Zeka İş Kayıpları" makalesini okuyun.

Örneğin, Dünya Ekonomik Forumu'ndan uzmanlar ve analistler, yapay zekanın işgücü piyasasını "tsunami gibi" etkilediğini belirterek, birçok ülke ve şirketin değişim hızına hazırlıksız olduğunu kaydetti.

Yapay zekânın %0,8'e kadar ekonomik büyümeye katkıda bulunabileceği belirtilse de, 2025 yılında ABD'de yaklaşık 55.000 işten çıkarmaya neden olan faktörlerden biri olarak gösterildi; Amazon ve Salesforce gibi firmalar, işgücü azaltımlarını kısmen otomasyona bağladı. 6

10. Çevresel kaygılar

Büyük ölçekli üretken modellerin eğitilmesi, önemli miktarda hesaplama kaynağı gerektirir ve bu da önemli bir karbon ayak izine yol açabilir. Bu durum, bu tür modellerin geliştirilmesi ve kullanılmasının çevresel etkileriyle ilgili etik soruları gündeme getirir.

Toplumsal riskler nasıl azaltılabilir?

  • Paydaş katılımı : Potansiyel etik tuzakları anlamak ve çözümler aramak için etik uzmanları, topluluk temsilcileri ve kullanıcılar da dahil olmak üzere çeşitli paydaşlarla etkileşim kurun.
  • Şeffaflık girişimleri : Yapay zeka süreçlerinin ve amaçlarının kullanıcılar ve paydaşlar için şeffaf hale getirilmesi için çaba gösterilmelidir. Bu, yapay zeka tarafından oluşturulan içeriğe filigran veya etiket eklenmesini içerir.
  • Etik yönergeler : Kuruluşlar, üretken yapay zekanın ortaya koyduğu zorlukları özel olarak ele alan etik yönergeler geliştirebilir ve bunlara uyabilirler.

Üretken yapay zekâ risklerinin üstesinden gelmek için araçlar

Üretken yapay zeka girişimlerindeki riskleri azaltmak için kuruluşlar, yapay zeka yönetişim çerçeveleri, LLM güvenliği ve ajan tabanlı yapay zeka güvenlik araçları gibi önlemler alabilirler:

Yapay zeka yönetişim araçları, standartları uygular, çıktıları izler ve denetimler ile kullanıcı eğitimleri için çerçeveler sağlar. Yapay zeka tarafından oluşturulan içeriği takip edip doğrulayarak, yapay zekanın lisanslama ve telif hakkı yasalarına uygunluğunu sağlarlar.

Örneğin, Airia , mevcut yapay zeka güvenliği ve ajan düzenleme araçlarını tamamlayan ve kuruluşların yapay zeka sistemleri için uçtan uca gözetim, kontrol ve uyumluluk sağlayan bir Yapay Zeka Yönetişimi özelliği sunmuştur.

Bu lansman, yapay zekanın yaşam döngüsü boyunca sorumlu, şeffaf ve politikalara uygun davranmasını sağlayarak, hesap verebilirlik ve düzenleyici gereklilikler (örneğin, AB Yapay Zeka Yasası, NIST ve ISO standartları) etrafındaki artan kurumsal zorluklara yanıt vermektedir.

Yönetişim paketi, bir yönetişim paneli, merkezi ajan ve model kayıt defteri, sürümleme ve denetim izleri içeren model deposu, uyumluluk otomasyonu ve risk değerlendirme araçları içerir. Şirketin yönetişim, risk ve uyumluluk (GRC) uzmanlığıyla desteklenen çözüm, işletmelerin riski yönetmelerini, uyumluluğu göstermelerini ve yapay zeka kullanımını hızlandırmalarını sağlar. 7

LLM güvenlik araçları, etik kurallara uyumu sağlamak ve adil içeriği korumak amacıyla önyargıları gerçek zamanlı olarak izlemek ve düzeltmek için başka bir yol sunar. Diferansiyel gizlilik tekniklerini uygular, veri sızıntısını izler ve veri işlemeyi güvence altına alır. Bu araçlar ayrıca, güvenlik sorunlarını hızlı bir şekilde tespit etmek ve düzeltmek için düzenli denetimler için çerçeveler sağlar.

Otonom yapay zeka ajanlarının planlama, karar verme ve eylem gerçekleştirme yeteneklerinin getirdiği riskleri azaltmaya odaklanan ajan tabanlı yapay zeka güvenliği, bu alanda öncü bir rol oynar.

Bu araçlar çok adımlı görevleri yerine getirebildiğinden ve sınırlı insan gözetimiyle çalışabildiğinden, yetkisiz işlemler, ayrıcalık yükseltme, veri sızıntısı ve sistemin kötüye kullanımı riskleri artmaktadır.

Bu tehditlerle başa çıkmak için kuruluşlar, sıkı kimlik ve erişim yönetimi, insan müdahalesi gerektiren onay süreçleri, sürekli izleme ve denetim, tehdit modellemesi ve ajanların tanımlanmış sınırlar içinde hareket etmesini sağlamak için arıza emniyet mekanizmaları gibi kontroller uygulamaktadır.

Örneğin, Singapur'un Bilgi İletişim ve Medya Geliştirme Kurumu (IMDA), Dünya Ekonomik Forumu'nda, kullanıcılar adına planlama, akıl yürütme ve hareket etme yeteneğine sahip otonom yapay zeka ajanlarının sorumlu bir şekilde konuşlandırılması konusunda kuruluşlara rehberlik etmeyi amaçlayan, dünyada bir ilk olan Ajan Tabanlı Yapay Zeka Yönetişim Çerçevesi Modelini duyurdu.

Bu çerçeve, riskleri değerlendirmek ve sınırlandırmak, anlamlı insan sorumluluğunu sağlamak, aracı yaşam döngüsü boyunca kontrolleri uygulamak ve son kullanıcı sorumluluğunu ve şeffaflığını artırmak için teknik ve teknik olmayan önlemleri özetlemektedir. 8

Cem Dilmegani
Cem Dilmegani
Baş Analist
Cem, 2017'den beri AIMultiple'da baş analist olarak görev yapmaktadır. AIMultiple, her ay Fortune 500 şirketlerinin %55'i de dahil olmak üzere yüz binlerce işletmeye (benzer Web'e göre) bilgi sağlamaktadır. Cem'in çalışmaları, Business Insider, Forbes, Washington Post gibi önde gelen küresel yayınlar, Deloitte, HPE gibi küresel firmalar, Dünya Ekonomik Forumu gibi STK'lar ve Avrupa Komisyonu gibi uluslararası kuruluşlar tarafından alıntılanmıştır. AIMultiple'ı referans gösteren daha fazla saygın şirket ve kaynağı görebilirsiniz. Kariyeri boyunca Cem, teknoloji danışmanı, teknoloji alıcısı ve teknoloji girişimcisi olarak görev yapmıştır. On yıldan fazla bir süre McKinsey & Company ve Altman Solon'da işletmelere teknoloji kararları konusunda danışmanlık yapmıştır. Ayrıca dijitalleşme üzerine bir McKinsey raporu yayınlamıştır. Bir telekom şirketinin CEO'suna bağlı olarak teknoloji stratejisi ve tedarikini yönetmiştir. Ayrıca, 2 yıl içinde sıfırdan 7 haneli yıllık yinelenen gelire ve 9 haneli değerlemeye ulaşan derin teknoloji şirketi Hypatos'un ticari büyümesini yönetmiştir. Cem'in Hypatos'taki çalışmaları TechCrunch ve Business Insider gibi önde gelen teknoloji yayınlarında yer aldı. Cem düzenli olarak uluslararası teknoloji konferanslarında konuşmacı olarak yer almaktadır. Boğaziçi Üniversitesi'nden bilgisayar mühendisliği diplomasına ve Columbia Business School'dan MBA derecesine sahiptir.
Tam Profili Görüntüle

Yorum yapan ilk kişi olun

E-posta adresiniz yayınlanmayacak. Tüm alanlar gereklidir.

0/450