Bize Ulaşın
Sonuç bulunamadı.

En İyi 10 Sunucusuz GPU Bulut Hizmeti ve 14 Uygun Fiyatlı GPU

Cem Dilmegani
Cem Dilmegani
güncellendi Nis 15, 2026
Bakınız etik normlar

Sunucusuz GPU'lar, yapay zeka iş yükleri için kolayca ölçeklenebilir bilgi işlem hizmetleri sağlayabilir. Bununla birlikte, büyük ölçekli projeler için maliyetleri önemli olabilir. İhtiyaçlarınıza göre bölümlere göz atın:

Sunucusuz GPU fiyatı/verimlilik oranı

Sunucusuz GPU sağlayıcıları, yapay zeka iş yükleri için farklı performans seviyeleri ve fiyatlandırma seçenekleri sunar. İnce ayar ve çıkarım ihtiyaçlarınız için en uygun maliyetli GPU yapılandırmalarını önde gelen sunucusuz platformlarda karşılaştırın:

Cloud GPU Throughput & Prices

Updated on May 6, 2026

12 / 26 gösteriliyor

Seeweb

Code
1xNVIDIA H100
Region
Not Specified
GPU
1 x NVIDIA H100 80 GB
Images/s
13,220
Price/h
$ 2.63
18,095,817Tokens / $

Seeweb

Code
1xNVIDIA L4
Region
Not Specified
GPU
1 x NVIDIA L4 24 GB
Images/s
2,032
Price/h
$ 0.48
15,240,000Tokens / $

Runpod

Code
1xNVIDIA L4
Region
Not Specified
GPU
1 x NVIDIA L4 24 GB
Images/s
2,032
Price/h
$ 0.48
15,240,000Tokens / $

Koyeb

Code
1xNVIDIA H100
Region
Not Specified
GPU
1 x NVIDIA H100 80 GB
Images/s
13,220
Price/h
$ 3.30
14,421,818Tokens / $

Runpod

Code
1xNVIDIA H100
Region
Not Specified
GPU
1 x NVIDIA H100 80 GB
Images/s
13,220
Price/h
$ 3.35
14,206,567Tokens / $

Beamcloud

Code
1xNVIDIA H100
Region
Not Specified
GPU
1 x NVIDIA H100 80 GB
Images/s
13,220
Price/h
$ 3.50
13,597,714Tokens / $

Koyeb

Code
1xNVIDIA A100
Region
Not Specified
GPU
1 x NVIDIA A100 40 GB
Images/s
6,971
Price/h
$ 2.00
12,547,800Tokens / $

Modal

Code
1xNVIDIA H100
Region
Not Specified
GPU
1 x NVIDIA H100 80 GB
Images/s
13,220
Price/h
$ 3.95
12,048,608Tokens / $

Runpod

Code
1xNVIDIA A100
Region
Not Specified
GPU
1 x NVIDIA A100 40 GB
Images/s
6,971
Price/h
$ 2.17
11,564,793Tokens / $

Runpod

Code
1xNVIDIA H200
Region
Not Specified
GPU
1 x NVIDIA H200 141 GB
Images/s
12,994
Price/h
$ 4.46
10,488,430Tokens / $

Koyeb

Code
1xNVIDIA L4
Region
Not Specified
GPU
1 x NVIDIA L4 24 GB
Images/s
2,032
Price/h
$ 0.70
10,450,286Tokens / $

Modal

Code
1xNVIDIA H200
Region
Not Specified
GPU
1 x NVIDIA H200 141 GB
Images/s
12,994
Price/h
$ 4.54
10,303,612Tokens / $
Filtreler
GPU Name
Cloud

Sunucusuz GPU fiyat hesaplayıcısı

Sunucusuz GPU kıyaslama sonuçları

Sunucusuz GPU'lar için kullandığımız kıyaslama metodolojisi hakkında daha fazla bilgi edinebilirsiniz.

Sunucusuz GPU sağlayan 10 firma kısa listeye alındı.

Bu alan gelişmekte olan bir alan olduğundan ve sponsorlar hariç (ki bunlar listenin en üstünde yer alır ve web sitelerine bağlantı verilir) sınırlı veri bulunduğundan şirketler alfabetik olarak sıralanmıştır.

RunPod

RunPod, çeşitli iş yükleri için tamamen yönetilen ve ölçeklenebilir yapay zeka uç noktaları sunar. RunPod kullanıcıları, GPU örnekleri ve sunucusuz uç noktalar arasında seçim yapabilir ve Kendi Konteynerinizi Getirin (BYOC) yaklaşımını kullanabilirler. RunPod'un bazı özellikleri şunlardır:

  • Bir konteyner bağlantısı bırakarak bir pod'u çekmek suretiyle yükleme işlemi.
  • Kredi tabanlı bir ödeme ve faturalama sistemi.

Baseten Laboratuvarları

Baseten, kullanıcıların model kütüphanesinden çeşitli boyut ve türdeki modelleri büyük ölçekte dağıtmalarına yardımcı olan bir makine öğrenimi altyapı platformudur. Hesaplama performansını artırmak için A100, A10 ve T4 gibi GPU örneklerinden yararlanır.

Baseten ayrıca Truss adlı açık kaynaklı bir araç da sunuyor. Bu araç, geliştiricilerin yapay zeka/makine öğrenimi modellerini gerçek dünya senaryolarında kullanmalarına yardımcı olabilir. Truss ile geliştiriciler şunları yapabilir:

  • Model sunucusu kullanarak model kodunu, ağırlıkları ve bağımlılıkları paketleyin ve test edin.
  • Canlı yeniden yükleme sunucusundan gelen hızlı geri bildirimlerle modellerini geliştirerek karmaşık Docker ve Kubernetes yapılandırmalarından kaçınırlar.
  • Transformer, difüzör, PyTorch, Tensorflow, XGBoost, sklearn veya tamamen özel modeller de dahil olmak üzere herhangi bir Python çerçevesiyle oluşturulmuş modelleri destekler.

Işın Bulutu

Eskiden Slai olarak bilinen Beam, kimlik doğrulama, otomatik ölçeklendirme, günlük kaydı ve ölçümler gibi yerleşik özelliklerle kolay REST API dağıtımı sağlar. Beam kullanıcıları şunları yapabilir:

  • GPU tabanlı uzun süreli eğitim görevlerini, tek seferlik veya planlanmış otomatik yeniden eğitim seçeneklerinden birini seçerek gerçekleştirin.
  • Otomatik yeniden denemeler, geri çağırmalar ve görev durumu sorgulamaları içeren işlevleri bir görev kuyruğuna dağıtın.
  • Kullanıcı bekleme sürelerini optimize etmek için otomatik ölçeklendirme kurallarını özelleştirin.

Beyin Yapay Zekası

Cerebrium AI, H100, A100 ve A5000 dahil olmak üzere toplamda 8'den fazla GPU türüyle geniş bir yelpazede GPU sunmaktadır. Cerebrium, kullanıcıların altyapıyı kod olarak tanımlayarak ortamlarını oluşturmalarına ve S3 kovalarını yönetmeye gerek kalmadan koda doğrudan erişmelerine olanak tanır.

Şekil 2: Beyin platformu örneği 1

Fal AI

FAL AI, özelleştirme ve müşteri uygulamalarına entegrasyon için API uç noktalarına sahip kullanıma hazır modeller sunar. Platformları, A100 ve T4 gibi sunucusuz GPU'ları destekler.

Koyeb

Koyeb, geliştiricilerin sunucuları, altyapıyı veya operasyonları yönetmeden uygulamaları küresel olarak kolayca dağıtmalarına olanak tanıyan sunucusuz bir platformdur. Koyeb, üretken yapay zeka, video işleme ve LLM'ler gibi yapay zeka görevleri için Docker desteği ve yatay ölçeklendirme özelliğine sahip sunucusuz GPU'lar sunar. Teklifinde 80 GB'a kadar vRAM'e sahip H100 ve A100 GPU'lar yer almaktadır.

Saatlik ücreti saniye başına 0,50$ ile 3,30$ arasında değişmekte olup, faturalandırma saniye üzerinden yapılmaktadır.

Modal, geliştiricilerin uzaktan kod çalıştırmasına, konteyner ortamlarını programatik olarak tanımlamasına ve binlerce konteynere ölçeklendirmesine olanak tanıyan sunucusuz bir bulut platformudur. GPU entegrasyonunu, web uç nokta sunumunu, planlanmış iş dağıtımını ve sözlükler ve kuyruklar gibi dağıtılmış veri yapılarını destekler. Platform, saniye başına ödeme modeliyle çalışır ve altyapı yapılandırması gerektirmez; YAML yerine kod tabanlı kuruluma odaklanır.

Modal'yı kullanmak için geliştiriciler modal.com'a kaydolur, pip install modal komutuyla Modal Python paketini kurar ve modal kurulumuyla kimlik doğrulaması yaparlar. Kod, Modal'nın bulutunda konteynerler içinde çalışır ve Kubernetes veya AWS gibi altyapı yönetimini soyutlar. Şu anda yalnızca Python ile sınırlı olan bu özellik, diğer dillere de genişletilebilir.

Şekil 3: Modal platform örneği 2

Gizemli Yapay Zeka

Mystic AI'nin sunucusuz platformu, çıkarım API'si aracılığıyla makine öğrenimi modellerini barındıran bir işlem hattı çekirdeğidir. İşlem hattı çekirdeği, GPT, Kararlı yayılım ve Whisper gibi 15'ten fazla seçenekle özel modeller oluşturabilir. İşte işlem hattı çekirdeğinin bazı özellikleri:

  • Eş zamanlı model sürümleme ve izleme
  • Çevre yönetimi, kütüphaneler ve çerçeveler dahil.
  • Çeşitli bulut sağlayıcıları arasında otomatik ölçeklendirme
  • Çevrimiçi, toplu ve akışlı çıkarım desteği
  • Diğer makine öğrenimi ve altyapı araçlarıyla entegrasyonlar.

Mystic AI ayrıca destek için aktif bir Discord topluluğu da sunmaktadır.

Novita Yapay Zeka

Novita AI, geliştiricilerin derin makine öğrenimi uzmanlığına ihtiyaç duymadan gelişmiş yapay zeka ürünleri oluşturmalarına yardımcı olmak için tasarlanmış bir platformdur. Görüntü, video, ses ve büyük dil modeli (LLM) görevleri de dahil olmak üzere çeşitli alanlarda uygulama geliştirmek için kapsamlı bir API ve araç paketi sunar.

Novita Yapay zekanın sunucusuz sistemi, otomatik ölçeklendirme, DockerHub desteğiyle dağıtım ve gerçek zamanlı izleme sunar.

Şekil 4: Novita Sunucusuz örnek için yapay zeka platformu izleme yeteneği. 3

Replicate

Replicate'in platformu, özel ve önceden eğitilmiş makine öğrenimi modellerini destekler. Platform, açık kaynaklı modeller için bir bekleme listesi sunar ve Nvidia T4 ile A100 arasında seçim yapma esnekliği sağlar. Platform ayrıca, model dağıtımını kolaylaştırmak için açık kaynaklı bir kütüphane olan COG'u da içerir.

Seeweb

Seeweb, yapay zeka iş yüklerini optimize etmek için sunucusuz GPU çözümleri sunan bir bulut bilişim sağlayıcısıdır. Bu çözümler, Python'da popüler modelleri verimli bir şekilde çalıştırmak, kopyalamak veya önceden eğitmek isteyen geliştiriciler için bir giriş noktası görevi görür. Dağıtımları hızlandırmak için Kubernetes'ten yararlanabilirler.

Başlıca özellikler:

  • Kaynakları dinamik olarak ayarlayan otomatik ölçeklendirme, sunucusuz işlevlerle ilişkili soğuk başlatmaları azaltır.
  • Avrupa bulutunda faaliyet göstererek ve erişimi genişletmek için küresel bir ağ kullanarak GDPR uyumluluğunu sağlıyoruz.
  • Kullanıcıların makine öğrenimi modellerini yönetmeleri için güvenilir yardım almalarını sağlayan 7/24/365 destek.

Sunulan GPU'lar arasında A100, H100, L40S, L4 ve RTX A6000 yer almaktadır.

Diğer bulut hizmeti sağlayıcıları nelerdir?

AWS ve Azure gibi önde gelen bulut sağlayıcıları, şu anda GPU'ları desteklemeyen sunucusuz işlevsellik sunmaktadır. Scaleway veya CoreWeave gibi diğer sağlayıcılar ise GPU çıkarımı sunmakta ancak sunucusuz GPU'lar sunmamaktadır.

Bulut tabanlı GPU sağlayıcıları ve GPU pazarı hakkında daha fazla bilgi edinin.

Sunucusuz GPU'nun faydaları nelerdir?

ChatGPT gibi LLM'ler geçen yıldan beri iş dünyasında oldukça popüler bir konu oldu. Bu nedenle, bu modellerin sayısı önemli ölçüde arttı. Sunucusuz GPU'ların avantajları, aşağıdakiler gibi çeşitli LLM zorluklarının önüne geçmeye yardımcı olur:

  1. Maliyet verimliliği: Kullanıcılar yalnızca gerçekten kullandıkları GPU kaynakları için ödeme yaparlar, bu da onu maliyet açısından verimli bir çözüm haline getirir. Geleneksel bir sunucu kurulumunda, kullanıcıların sürekli kaynak tahsisi için ödeme yapmaları beklenir.
  2. Ölçeklenebilirlik: Sunucusuz mimariler, değişen iş yüklerini karşılamak için otomatik olarak ölçeklenir. Kaynaklara olan talep arttığında veya azaldığında, altyapı manuel müdahaleye gerek kalmadan dinamik olarak ayarlanır.
  3. Basitleştirilmiş yönetim: Bulut sağlayıcısı sunucu temini, ölçeklendirme ve diğer altyapı yönetimini üstlendiği için geliştiriciler belirli işlevler veya görevler için kod yazmaya odaklanabilirler.
  4. İhtiyaca Göre Kaynak Tahsisi: Sunucusuz GPU mimarisi, uygulamaların GPU kaynaklarına ihtiyaç duydukları anda erişmesine olanak tanır. Bu, GPU işlemeye ayrılmış fiziksel veya sanal sunucuların yönetimini ve bakımını kolaylaştırır. Kaynaklar, uygulama gereksinimlerine göre dinamik olarak tahsis edilir.
  5. Esneklik: Geliştiriciler, uygulamalarının özel ihtiyaçlarına bağlı olarak kaynakları artırabilir veya azaltabilir. Bu uyarlanabilirlik, özellikle değişken işlem gücü gereksinimlerine sahip iş yükleri için kullanışlıdır.
  6. Gelişmiş paralel işlem: GPU hesaplama, paralel işlem görevlerinde üstün performans gösterir. Bu nedenle, sunucusuz GPU mimarileri, makine öğrenimi çıkarımı, veri işleme ve bilimsel simülasyonlar gibi önemli paralel hesaplama gerektiren uygulamalarda kullanılabilir.

Sunucusuz GPU kıyaslama metodolojisi

Fiyatlar: Sunucusuz GPU fiyatları, tüm sağlayıcılardan aylık olarak taranmaktadır.

Performans:

  • Tüm sunucusuz GPU modellerinin performansı Modal bulut platformunda ölçülmüştür.
  • Metin ince ayarı, FineTune-100k veri kümesi üzerinde 1 milyon belirteç kullanılarak ve 5 dönem boyunca Llama 3.2-1B-Instruct'ın ince ayarlanmasıyla ölçüldü. Belirteç sayısı dönem sayısıyla çarpılarak ince ayar süresine bölündü ve saniyede ince ayar yapılan belirteç sayısı elde edildi.
  • Metin çıkarımı, hem girdi hem de çıktı belirteçleri dahil olmak üzere 1 milyon belirteç üzerinden ölçüldü. Saniye başına ortalama belirteç sayısını hesaplamak için belirteç sayısını toplam çıkarım süresine böldük.

H200 ve H100 Karşılaştırması Performans Notları:

  • H200'ün, daha yeni mimarisi ve daha büyük belleği (80 GB'a karşılık 141 GB) göz önüne alındığında, H100'e kıyasla daha düşük ince ayar performansı göstermesi ilk bakışta mantıksız görünebilir. Bu sonuca, bellek bant genişliği kullanımındaki farklılıklar, yazılım optimizasyonunun olgunluğu veya sürekli iş yükleri altında termal yönetim gibi çeşitli faktörler katkıda bulunabilir.
  • Bu karşılaştırmada, H200'ün ek bellek kapasitesinden tam olarak yararlanamayabilecek nispeten küçük bir 1B parametre modeli kullanılmıştır. H200'ün genişletilmiş belleğini daha iyi kullanan daha büyük modellerde performans farkı önemli ölçüde değişebilir.
  • Performans, belirli iş yükü özelliklerine, parti boyutlarına ve test sırasında kullanılan yazılım yığınına bağlı olarak da değişiklik gösterebilir.

Sonraki Adımlar:

  • Performansın model boyutu ve bellek gereksinimleriyle nasıl ölçeklendiğini daha iyi anlamak için kıyaslama testlerimizi daha büyük modelleri (7B, 13B ve 70B parametre) içerecek şekilde genişletmeyi planlıyoruz.
  • Gelecekteki testler, H200'ün mimari avantajlarının daha belirgin olabileceği çoklu GPU kurulumlarını ve daha uzun bağlam uzunluğu senaryolarını içerecektir.

Makine öğrenimi modelleri için sunucusuz GPU'lar nasıl kullanılır?

Geleneksel makine öğrenimi iş akışlarında, geliştiriciler ve veri bilimciler genellikle karmaşık modellerin eğitiminin hesaplama gereksinimlerini karşılamak için özel sunucular veya GPU kümeleri sağlar ve yönetir. Makine öğrenimi için sunucusuz GPU, altyapı yönetiminin karmaşıklığını ortadan kaldırır.

Lütfen makine öğrenimi modellerinde sunucusuz GPU kullanımını anlamak için aşağıdaki kılavuzu takip edin:

  1. Eğitim modelleri: Sunucusuz GPU, geniş veri kümeleri için kaynakları dinamik olarak tahsis ederek verimli makine öğrenimi modeli eğitimi sağlar. Geliştiriciler, özel sunucuları yönetme zahmetine girmeden, isteğe bağlı kaynaklardan yararlanır.
  2. Çıkarım: Sunucusuz GPU'lar, yeni veriler üzerinde hızlı tahminler yapılmasını sağlayarak model çıkarımı için çok önemlidir. Görüntü tanıma ve doğal dil işleme gibi uygulamalar için ideal olan bu teknoloji, özellikle değişken talep dönemlerinde hızlı ve verimli yürütme sağlar.
  3. Gerçek zamanlı işlem: Video analizi gibi bunu gerektiren uygulamalar, Sunucusuz GPU'dan yararlanır. Dinamik kaynak ölçeklendirme, gelen veri akışlarının hızlı bir şekilde işlenmesini sağlayarak, çeşitli alanlardaki gerçek zamanlı uygulamalar için uygun hale getirir.
  4. Toplu işlem: Sunucusuz GPU'lar, makine öğrenimi iş akışlarında büyük ölçekli veri işlemeyi gerçekleştirir. Bu, veri ön işleme, özellik çıkarma ve diğer toplu işlem odaklı makine öğrenimi işlemleri için çok önemlidir.
  5. Olay odaklı makine öğrenimi iş akışları: Sunucusuz mimariler olay odaklıdır ve tetikleyicilere veya olaylara yanıt verir; örneğin, yeni veriler kullanılabilir hale geldiğinde modeli günceller veya belirli olaylara yanıt olarak modeli yeniden eğitir.
  6. Hibrit mimariler: Bazı makine öğrenimi iş akışları, sunucusuz ve geleneksel bilgi işlem kaynaklarını birleştirir. Örneğin, GPU yoğun model eğitimi, yapay zeka çıkarımı için sunucusuz bir ortama geçerek kaynak kullanımını optimize eder.

SSS'ler

GPU çıkarımı, önceden eğitilmiş bir makine öğrenimi modelinden tahminler veya çıkarımlar yapmak için Grafik İşlem Birimlerinin (GPU'lar) kullanılması işlemidir. GPU, eğitilmiş modeli kullanarak girdi verilerini işlemek için gereken hesaplama görevlerini hızlandırarak daha hızlı ve verimli tahminler sağlar. GPU'ların paralel işlem yetenekleri, geleneksel CPU tabanlı yaklaşımlara kıyasla bu çıkarım görevlerinin hızını ve verimliliğini artırır.

GPU çıkarımı, özellikle görüntü tanıma, doğal dil işleme ve gerçek zamanlı veya gerçek zamana yakın tahminler veya sınıflandırmalar gerektiren diğer makine öğrenimi görevleri gibi uygulamalar için son derece değerlidir.

Sunucusuz GPU, geliştiricilerin altta yatan sunucu altyapısını yönetmeden uygulamaları çalıştırdığı bir bilgi işlem modelidir. GPU kaynakları ihtiyaç duyuldukça dinamik olarak sağlanır. Bu ortamda, geliştiriciler belirli işlevleri kodlamaya odaklanırken, bulut sağlayıcısı sunucu ölçeklendirmesi de dahil olmak üzere altyapıyı yönetir.

"Sunucusuz" terimi sunucuların yokluğunu çağrıştırsa da, sunucular hâlâ mevcuttur ancak geliştiricilerden soyutlanmıştır. GPU hesaplamada, bu mimari, fiziksel veya sanal sunucu yönetimine gerek kalmadan isteğe bağlı GPU erişimine olanak tanır.

Sunucusuz GPU hesaplama, makine öğrenimi, veri işleme ve bilimsel simülasyonlar gibi önemli ölçüde paralel işlem gerektiren görevler için yaygın olarak kullanılır. Sunucusuz GPU yetenekleri sunan bulut sağlayıcıları, uygulama talebine bağlı olarak GPU kaynak tahsisini ve ölçeklendirmesini otomatikleştirir.

Bu mimari, altyapının değişen iş yüklerine dinamik olarak uyum sağlaması sayesinde maliyet verimliliği ve ölçeklenebilirlik gibi avantajlar sunar. Geliştiricilerin kod yazmaya daha fazla, altyapıyı yönetmeye ise daha az odaklanmasını sağlar.

NVIDIA ve Microsoft numaralı Megatron-Turing projesinin tamamının yaklaşık 100 milyon dolara mal olacağı tahmin ediliyor. 4 Bu tür sistem maliyetleri, faydalarına rağmen işletmelerin Büyük Dil Modellerini (LLM'ler) benimsemesini engellemektedir.

NVIDIA L40S, L40 GPU'nun daha güçlü ve yapay zeka için optimize edilmiş bir versiyonudur. Her ikisi de Ada Lovelace mimarisini kullanırken, L40S, gelişmiş tensör çekirdek yetenekleri ve FP8 hassasiyeti desteği sayesinde yapay zeka eğitimi ve çıkarımı için önemli ölçüde daha yüksek performans sunar.

L40, grafik, render ve genel amaçlı iş yükleri için daha uygundur; L40S ise veri merkezlerindeki yoğun işlem gücü gerektiren yapay zeka görevleri için idealdir.

Daha fazla okuma

GPU hakkında daha fazla bilgi edinin:

Dış kaynaklar

Cem Dilmegani
Cem Dilmegani
Baş Analist
Cem, 2017'den beri AIMultiple'da baş analist olarak görev yapmaktadır. AIMultiple, her ay Fortune 500 şirketlerinin %55'i de dahil olmak üzere yüz binlerce işletmeye (benzer Web'e göre) bilgi sağlamaktadır. Cem'in çalışmaları, Business Insider, Forbes, Washington Post gibi önde gelen küresel yayınlar, Deloitte, HPE gibi küresel firmalar, Dünya Ekonomik Forumu gibi STK'lar ve Avrupa Komisyonu gibi uluslararası kuruluşlar tarafından alıntılanmıştır. AIMultiple'ı referans gösteren daha fazla saygın şirket ve kaynağı görebilirsiniz. Kariyeri boyunca Cem, teknoloji danışmanı, teknoloji alıcısı ve teknoloji girişimcisi olarak görev yapmıştır. On yıldan fazla bir süre McKinsey & Company ve Altman Solon'da işletmelere teknoloji kararları konusunda danışmanlık yapmıştır. Ayrıca dijitalleşme üzerine bir McKinsey raporu yayınlamıştır. Bir telekom şirketinin CEO'suna bağlı olarak teknoloji stratejisi ve tedarikini yönetmiştir. Ayrıca, 2 yıl içinde sıfırdan 7 haneli yıllık yinelenen gelire ve 9 haneli değerlemeye ulaşan derin teknoloji şirketi Hypatos'un ticari büyümesini yönetmiştir. Cem'in Hypatos'taki çalışmaları TechCrunch ve Business Insider gibi önde gelen teknoloji yayınlarında yer aldı. Cem düzenli olarak uluslararası teknoloji konferanslarında konuşmacı olarak yer almaktadır. Boğaziçi Üniversitesi'nden bilgisayar mühendisliği diplomasına ve Columbia Business School'dan MBA derecesine sahiptir.
Tam Profili Görüntüle

Yorum yapan ilk kişi olun

E-posta adresiniz yayınlanmayacak. Tüm alanlar gereklidir.

0/450