Bilgilendirici

Yapay Zekâ ile Operasyonel Otomasyon: Nereden Başlanır?

Koray Çetintaş 10 Şubat 2026 11 dk okuma



Yapay zekâ her yerde tartışılıyor, ancak iş süreçlerinde yapay zeka kullanımına başlamak istediğinizde “nereden başlamalıyım, hangi sürecim uygun, ne kadar veri gerekir” sorularına net yanıt bulamıyorsunuz. Çoğu proje, hevesle başlayıp yarıda kalıyor veya beklenen değeri üretemiyor.

Bu rehber, operasyonel AI ile iş süreçlerinizi otomatikleştirmeye nasıl başlayacağınızı adım adım açıklıyor: süreç seçimi, veri hazırlığı, pilot proje yaklaşımı, başarı metrikleri ve sahadan anonimleştirilmiş örneklerle.







Operasyonel AI vs Generative AI: Fark Nedir?

Yapay Zeka Dashboard ve Veri Analizi

Operasyonel AI, tarihsel verilerden öğrenerek iş süreçlerini optimize eder

Yapay zekâ denildiğinde çoğu kişinin aklına ChatGPT gibi Generative AI (üretken yapay zekâ) araçları gelir. Ancak iş süreçlerinde asıl değer üreten, Operasyonel AI (operasyonel yapay zekâ) adı verilen ve tarihsel verilerden öğrenerek karar veren sistemlerdir.

Operasyonel AI Nedir?

Tarihsel verilerden öğrenerek tekrarlayan iş kararlarını otomatikleştirir:

  • Tahminleme (Prediction): Gelecek talep, satış, stok ihtiyacı
  • Sınıflandırma (Classification): Müşteri segmentasyonu, risk skorlama, öncelik tespiti
  • Anomali Tespiti (Anomaly Detection): Fatura hatası, üretim sapması, siber tehdit
  • Optimizasyon: Rota planlama, kaynak dağıtımı, fiyatlama

Generative AI Nedir?

Yeni içerik üretir (metin, görsel, kod). İ̇ş süreçlerinde destekleyici rolü vardır:

  • Müşteri destek chatbot’ları
  • İ̇çerik taslakları oluşturma (e-posta, rapor özeti)
  • Kod otomasyon önerileri

Fark: Operasyonel AI “karar verir”, Generative AI “içerik üretir”. İ̇ş süreçlerinde öncelik Operasyonel ai’dır.




AI İ̇çin Uygun Süreç Seçimi: 5 Kriter

İ̇ş Süreci Analizi ve Veri

Doğru süreç seçimi, AI projesinin başarı oranını 3 kat artırır

Tüm iş süreçleri yapay zekâya uygun değildir. İlk AI projeniz için uygun süreci seçerken şu 5 kriteri kontrol edin:

1. Tekrarlayan ve Yüksek Frekanslı

Günde 100+ kez tekrarlanan süreçler idealdir. Örnekler:

  • Fiyat teklifi hazırlama
  • Stok sipariş onayı
  • Müşteri talebinin kategorize edilmesi

2. Veri Zengin

En az 3–6 aylık temiz veri mevcut olmalıdır. Veri formatı:

  • Yapılandırılmış (tablo formatında, tutarlı sütunlar)
  • Eksiksiz (boş alanlar %10’ün altında)
  • Etiketli (girdi + sonuç çiftleri)

3. Ölçülebilir Çıktı

Başarının net ölçütü olmalı:

  • “Doğruluk %85+” gibi somut hedef
  • “Süre %30 azaldı” gibi ölçülebilir etki
  • “Hatalı işlem oranı %5’e düştü” gibi kalite metriği

4. İnsan Girdisi Azaltılabilir

Manüel karar verme süreçleri AI’ya uygundur:

  • Faturaların manüel kontrolü → Anomali tespiti
  • Talep tahmininde sezgi → Tahminleme modelı
  • Müşteri segmentasyonunda deneyim → Sınıflandırma

5. Düşük Riskli

İlk proje için kritik olmayan süreç seçin:

  • Yanlış karar operasyonu durdurmamalı
  • Yasal/regülasyon riskı düşük olmalı
  • İnsan onayı eklenebilir olmalı (hybrid model)



3 Başlangıç Senaryosu: Tahminleme, Sınıflandırma, Anomali

Veri Analizi ve Tahminleme

Tahminleme, sınıflandırma ve anomali tespiti en yaygın AI senaryolarıdır

İlk AI projeniz için 3 temel senaryo vardır. Her birinin kullanım alanı, veri gereksinimi ve çıktısı farklıdır:

Senaryo 1: Tahminleme (Forecasting)

Ne yapar: Gelecekteki bir sayısal değeri tahmin eder.

Kullanım alanları:

  • Satış tahmini (gelecek ay kaç adet satılacak)
  • Talep tahmini (hangi ürünün stoğu yenilenecek)
  • Nakit akış tahmini (gelecek çeyrek ne kadar gelir bekleniyor)
  • Bakım tahmini (ekipman ne zaman arızalanacak)

Veri gereksinimi: Minimum 6–12 aylık tarihsel veri (mevsimsellik varsa 2 yıl önerilir).

Çıktı: “Gelecek ay talep: 4.200 adet ± %12”

Senaryo 2: Sınıflandırma (Classification)

Ne yapar: Girdiyi önceden tanımlı kategorilere ayırır.

Kullanım alanları:

  • Müşteri segmentasyonu (A/B/C segmenti)
  • Risk skorlama (düşük/orta/yüksek risk)
  • E-posta/talep önceliklendirmesi (acil/normal/düşük)
  • Ürün kategorizasyonu (otomatik etiketleme)

Veri gereksinimi: Her kategori için en az 100–300 etiketli örnek.

Çıktı: “Müşteri X → Segment: A (yüksek değer, düşük risk)”

Senaryo 3: Anomali Tespiti (Anomaly Detection)

Ne yapar: Normal dışı (anormal) veriyi otomatik tespit eder.

Kullanım alanları:

  • Fatura hataları (tutar, tarih, tedarikçi uyuşmazlıkları)
  • Üretim sapmaları (fire oranı aniden artmış)
  • Siber güvenlik (şüpheli giriş denemesi)
  • Kalite kontrol (ürün boyut tolerans dışı)

Veri gereksinimi: Çoğunlukla normal veri; anormal örnekler %1–5 oranında olabilir.

Çıktı: “Fatura #12345 → Anomali: Tutar normalin %340 üzerinde”




Veri Hazırlığı ve Kalite Gereksinimleri

Veri Temizleme ve Hazırlık

Veri kalitesi, AI proje süresinin %60–70’ını oluşturur

AI projesinin başarısı, algoritma seçiminden çok veri kalitesine bağlıdır. Veri hazırlığı 4 aşamadan oluşur:

Aşama 1: Veri Toplama

İlgili tüm veri kaynaklarını tespit edin:

  • ERP sistemi (satış, stok, finans)
  • CRM (müşteri etkileşimleri)
  • Excel dosyaları (saha notları, manüel kayıtlar)
  • IoT sensörler (sıcaklık, titreşim, enerji tüketimi)

Tuzak: Veri farklı sistemlerde, farklı formatlarda. Entegrasyon gerekir.

Aşama 2: Veri Temizleme

Eksık, tutarsız, hatalı veriyi düzeltin:

  • Boş alanlar (NULL değerler) → Medyan veya mod ile doldurma
  • Aykırı değerler (outliers) → İstatistiksel filtre uygulama
  • Tutarsız formatlar (tarih: 01/02/2025 vs 2025-02-01) → Standartlaştırma
  • Duplike kayıtlar → Tekilleştirme

Önemli: Veri temizliği, proje süresinin %40–50’sini oluşturur.

Aşama 3: Veri Etiketleme (Supervised Learning için)

Tahmin ve sınıflandırma modellerinde, her girdinin doğru çıktısı bilinmeli:

  • Talep tahmini → Tarihsel talep + gerçekleşen satış
  • Müşteri segmentasyonu → Müşteri özellikleri + segment etiketi
  • Fatura anomali → Fatura detayı + normal/anormal etiketi

Etiketleme maliyeti: Manüel etiketleme saatte 50–200 kayıt işlenebilir.

Aşama 4: Veri Bölme (Train/Test/Validation)

Verinin %70’i eğitim, %15’i doğrulama, %15’i test için ayrılır:

  • Train (Eğitim): Model bu veriyle öğrenir
  • Validation (Doğrulama): Model hiperparametreleri ayarlanır
  • Test: Model performansı ölçülür

Önemli: Test verisi asla eğitimde kullanılmamalı, yoksa model “ezberleme” yapar.




Pilot Proje Yaklaşımı: 8 Haftalık Sprint

Proje Ekibi ve Planlama

Pilot proje, büyük yatırım yapmadan AI değerini test etme yöntemidir

İlk AI projenizi tüm şirkete yaymadan önce küçük ölçekli pilot proje ile test edin. 8 haftalık sprint önerisi:

Hafta 1–2: Süreç ve Veri Analizi

  • Pilot süreç belirleme (ör: tek ürün grubu için talep tahmini)
  • Veri kaynaklarının tespiti ve erişim izinlerinin alınması
  • Veri kalitesi kontrolü (eksiksizlik, tutarlılık)

Hafta 3–4: Model Geliştirme

  • Veri temizleme ve etiketleme
  • Model seçimi (regresyon, sınıflandırma, anomali tespiti)
  • İlk model eğitimi ve doğrulama
  • Performans ölçümü (accuracy, F1 score, RMSE)

Hafta 5–6: Entegrasyon ve Test

  • Model çıktısının mevcut sisteme entegrasyonu
  • Kullanıcı arayüzü tasarımı (dashboard, uyarı sistemi)
  • Gerçek veri ile canlı test (sandbox ortamında)

Hafta 7–8: Pilot Çalıştırma ve Değerlendirme

  • Pilot ekip ile canlı kullanım (5–10 kişi)
  • Geri bildirim toplama (anket, görüşme)
  • Sonuç raporu (başarı metrikleri, zorluklar, öneriler)
  • Yaygınlaştırma veya iptal kararı

Başarı kriteri: Pilot sonunda model doğruluğu %75+, kullanıcı memnuniyeti 4/5+, süreç iyileştirmesi %20+ olmalı.




Sahadan Örnek: Talep Tahmini ile Stok Optimizasyonu

Gerçek Vaka (Markasız)

Depo ve Stok Yönetimi

Firma Profili

Bölgesel dağıtım firması, 8 depo, 2.400+ SKU, çoklu kanal satış (B2B, e-ticaret, perakende). Talep tahmini Excel’de manüel yapılıyor, stok fazlalığı ve stoğu tükenen ürünler sık yaşanıyor.

Problem

  • Stok fazlalığı oranı %28 (envanter maliyetini artırıyor)
  • Stoksuzluk (stockout) oranı %14 (satış kaybı)
  • Talep tahmini haftalık 12 saat sürüyor
  • Mevsimsel ve promosyon etkisi manüel hesaplarda eksık kalıyor

Uygulanan AI Çözümü

  1. 1–2. Hafta: 18 aylık satış verisi, promosyon takvimi, tatil etkisi analiz edildi
  2. 3–4. Hafta: Tahminleme modelı (Time Series + XGBoost) eğitildi, 120 ürün için test edildi
  3. 5–6. Hafta: Model, ERP’ye entegre edildi, stok sipariş önerisi dashboard’u oluşturuldu
  4. 7–8. Hafta: Pilot: 2 depo, 500 SKU ile canlı kullanım

Sonuç (6. ay)

  • Stok fazlalığı oranı: %28 → %11
  • Stoksuzluk oranı: %14 → %5
  • Talep tahmini süresi: 12 saat → 45 dakika
  • Tahmin doğruluğu: %82 (manüel süreçte %65 idi)
  • Envanter maliyetinde azalma: %19

Kritik Öğrenme

İlk 2 hafta veri temizliği beklenenden uzun sürdü (tarih formatı tutarsızlıkları, duplike kayıtlar). Veri hazırlığına ayrılan süre %50 artırıldı.




En Sık Yapılan 7 AI Uygulama Hatası

1. Çözüm Aramadan AI’ya Başlamak

“AI modası, biz de yapalım” yaklaşımı. Önce iş problemi tanımlanmalı, sonra AI çözüm uygunluğu değerlendirilmelidir.

2. Veri Kalitesini Görmezden Gelmek

“Veri var, hemen modelı eğitelim” hızlılığı. Çöp veri → çöp model. Veri temizliği atlanmamalı.

3. Tüm Şirkete Aynı Anda Yaymak

Pilot test yapmadan büyük yatırım. Bir hata olduğunda tüm operasyon aksıyor, kullanıcı güveni kayboluyor.

4. Model Performansını Takip Etmemek

“Modelı kurduk, iş bitti” zannı. İ̇ş koşulları değiştikçe model doğruluğu düşer, düzenli yenileme gerekir.

5. Kullanıcı Katılımını Sağlamamak

AI projesı IT’nin işi değil. Saha ekibi katılmazsa, model kullanılmaz, proje başarısız sayılır.

6. Sadece Teknik Metriği Hedeflemek

“Model doğruluğu %95, başarılı” denmesi yeterli değil. İ̇ş değeri (maliyet düşüşü, süre kazanımı) ölçülmeli.

7. Açıklanabilirliği Unutmak

“AI öyle dedi” yanıtı kullanıcı güveni kaybettirir. Model kararları açıklanabilir olmalı (örn: “Talep yüksek çünkü geçen yıl aynı hafta %40 artmıştı”).

Veri ve Analiz

AI başarısı, doğru planlama ve sürekli izleme ile gelir




AI Proje Başarı Metrikleri

AI projesinin başarısını ölçmek için hem teknik hem iş değeri metriklerini izleyin:

Metrik Başlangıç Hedef Ölçüm Yöntemi
Model Doğruluğu (Accuracy) >%80 Test dataseti üzerinde
F1 Score (sınıflandırma) >0.75 Precision + Recall dengesi
RMSE (tahminleme) <%15 hata Gerçek vs tahmin sapması
Süreç Süre Kazanımı 12 saat 45 dakika Manüel vs AI süresi
Maliyet Düşüşü Baz maliyet %20–30 azalma Operasyonel maliyet analizi
Kullanıcı Benimseme Oranı %0 >%75 Aktif kullanıcı / toplam
Kullanıcı Memnuniyeti >4/5 Anket (5’li Likert)
ROI (Yatırım Getirisi) >200% (2 yıl) Tasarruf / Yatırım

Önemli: Teknik metrikler (accuracy, F1) yüksek ama iş değeri (maliyet, süre) düşükse proje başarısız sayılır.




AI Proje Başlangıç Kontrol Listesi

İlk AI projenize başlamadan önce şu maddeleri kontrol edin:

Strateji ve Hazırlık

  • İ̇ş problemi net tanımlandı mı? (örn: “Stok fazlalığı %28, hedef %10”)
  • Üst yönetim desteği alındı mı?
  • Bütçe ve kaynak ayrıldı mı? (veri bilimci, platform lisansı)
  • Pilot süreç belirlendi mi? (düşük riskli, veri zengin)

Veri Hazırlığı

  • Veri kaynakları tespit edildi mi? (ERP, CRM, Excel, IoT)
  • Veri erişim izinleri alındı mı?
  • Veri kalitesi değerlendirildi mi? (eksiksizlik, tutarlılık)
  • Minimum 3–6 aylık veri mevcut mu?
  • Etiketli veri var mı? (tahmin/sınıflandırma için)

Teknik Altyapı

  • AI platformu seçildi mi? (Azure ML, AWS SageMaker, Google Vertex)
  • Veri entegrasyon altyapısı hazır mı? (API, ETL pipeline)
  • Güvenlik ve KVKK uyumu sağlandı mı?
  • Test ortamı (sandbox) kuruldu mu?

Ekip ve Süreç

  • Proje ekibi oluşturuldu mu? (veri bilimci, iş analisti, IT, saha temsilcisi)
  • Pilot kullanıcılar belirlendi mi? (5–10 kişi)
  • Eğitim planı hazır mı?
  • Geri bildirim mekanizması tasarlandı mı? (anket, görüşme)

Ölçüm ve İzleme

  • Başarı metrikleri tanımlandı mı? (accuracy, F1, süre, maliyet)
  • Performans dashboard’u kuruldu mu?
  • Model yenileme (retraining) planı var mı?
  • ROI hesaplama yöntemi belirlendi mi?



Sıkça Sorulan Sorular (SSS)

Operasyonel AI, tarihsel verilerden öğrenerek tekrarlayan işleri otomatikleştirir (tahmin, sınıflandırma, anomali tespiti). Generative AI işe içerik üretir (metin, görsel, kod). İ̇ş süreçlerinde çoğunlukla operasyonel AI kullanılır.

Minimum 3–6 aylık temiz veri genellikle yeterlidir. Ancak veri kalitesi, miktardan daha önemlidir. Eksık, tutarsız veya manüel düzeltilmiş veri, modelin öğrenmesini engeller.

Evet. AI artık büyük şirketlere özel değil. SaaS AI platformları sayesinde sınıflandırma, tahmin, anomali tespiti gibi temel modeller küçük ölçekli ekipler tarafından da kullanılabilir.

Model doğruluğu (accuracy, F1 score), süreç iyileştirme oranı (zaman, maliyet), kullanıcı benimsemesi ve iş değeri (ROI) ile ölçülür. Sadece teknik metrikler yeterli değildir.

Evet. İ̇ş koşulları değiştikçe (yeni ürün, yeni pazar, ekonomik kriz) model performansı düşer. Düzenli model yenileme (retraining) şarttır.

Tekrarlayan, veri zengin, ölçülebilir çıktılı süreçler idealdir: talep tahmini, stok optimizasyonu, fatura anomali tespiti, müşteri segment analizi.






Yazar Hakkında

Koray Çetintaş, dijital dönüşüm, ERP mimarisi, süreç mühendisliği ve stratejik teknoloji liderliği alanlarında uzman danışmandır. Yapay zekâ, IoT ekosistemleri ve endüstriyel otomasyon konularında saha deneyimi ile "Strateji + İnsan + Teknoloji" yaklaşımını uygular.

Projeniz İçin Destek Alın

Dijital dönüşüm yolculuğunuzda size rehberlik edebilirim. Ücretsiz ön görüşme için randevu alın.