10 Saniyede Özet
Microsoft’un Copilot kullanım şartlarında eğlence amaçlı ifadesi yer alıyor.
Aynı metin, Copilot’un hata yapabileceğini ve önemli tavsiyeler için kullanılmaması gerektiğini söylüyor.
Bu şartlar Microsoft 365 Copilot’un tüm uygulamalarını otomatik olarak kapsamıyor.
Microsoft, söz konusu ifadeyi bir sonraki güncellemede değiştireceğini açıkladı.
Microsoft’un Copilot için hazırladığı kullanım şartlarında yer alan kısa bir ifade, son günlerde yapay zeka tartışmasının merkezine yerleşti. Metinde Copilot’un eğlence amaçlı olduğu, hata yapabileceği ve önemli tavsiyeler için dayanak alınmaması gerektiği açıkça yazıyor. Üstelik bu uyarı, ürünün hem bireysel kullanımda hem de daha geniş Copilot ekosisteminde nasıl konumlandırıldığına dair ayrı bir tartışma başlattı.
Asıl kırılma noktası ise şu: Microsoft bir yandan Copilot’u kişisel bir yapay zeka eşlikçisi ve çeşitli görevleri yerine getirebilen bir araç olarak anlatıyor, diğer yandan hukuki metinde çok daha sert bir güven uyarısı kullanıyor. Şirket şimdi bu dilin eski kaldığını söylüyor ve bir sonraki güncellemede değiştireceğini belirtiyor.
Sorun tek bir cümleden ibaret değil
Copilot kullanım şartlarının yürürlük tarihi 24 Ekim 2025. Metin; bağımsız Copilot uygulamalarını, web hizmetini, Microsoft’un başka uygulama ve siteleri içindeki Copilot konuşmalarını ve üçüncü taraf platformlardaki bazı Copilot deneyimlerini kapsıyor.

Fakat aynı belgede önemli bir ayrım da var: Bu şartların Microsoft 365 Copilot uygulama ve hizmetleri için otomatik olarak geçerli olmadığı, bunun ancak ilgili uygulama özellikle belirtirse mümkün olduğu yazıyor.
Buna rağmen belge içindeki uyarı oldukça sert. Microsoft, Copilot’un iyi yanıtlar vermeye çalıştığını ancak yanlış bilgi üretebileceğini, kullandığı kaynakların güvenilir ya da doğru olmayabileceğini ve kullanıcıların karar almadan önce bilgileri mutlaka kontrol etmesi gerektiğini belirtiyor. “Eğlence amaçlı” ifadesi de bu bölümün daha da keskinleşmiş hali olarak öne çıkıyor.
Pazarlama diliyle hukuki metin aynı yerde buluşmadı
Microsoft’un resmi anlatısında ise daha farklı bir tablo var. Şirket, geçen yıl Copilot’u herkes için yapay zeka eşlikçisi olarak tanımladı; bilet alma, restoran rezervasyonu yapma ya da hediye gönderme gibi işleri kullanıcı adına tamamlayabilen yeni özellikleri duyurdu. Bu anlatı, Copilot’un yalnızca sohbet eden bir araçtan daha fazlası olarak konumlandırıldığını net biçimde gösteriyor.
İş tarafında da benzer bir çerçeve kuruluyor. Microsoft’un destek sayfalarında, lisanslı Microsoft 365 Copilot’un e-postalar, toplantılar, sohbetler ve belgeler üzerinde çalışabilen gerçek bir iş asistanına dönüştüğü belirtiliyor. Yani resmi ürün anlatımı ile kullanım şartlarındaki ihtiyatlı dil arasında gözle görülür bir mesafe var.
Microsoft şimdi ne yapacak?
Şirketin son açıklamasına göre tartışma yaratan ifade eski dil olarak görülüyor. Microsoft, bu sözlerin Copilot’un Bing içindeki ilk dönemlerinden kaldığını, ürünün bugün geldiği noktayı yansıtmadığını ve bir sonraki güncellemede değiştirileceğini söyledi. Şu an için ise ilgili kullanım şartları sayfasında bu ifade hâlâ yer almaya devam ediyor.
Buradaki en önemli sonuç, kelimenin değişip değişmemesinden biraz daha büyük. Çünkü resmi şartlarda yer alan başka uyarılar da aynen duruyor: Copilot yanlış bilgi verebilir, internetten gelen içerikler güvenilir olmayabilir ve kullanıcıların karar vermeden önce doğrulama yapması gerekir. Yani tartışmalı ifade kalksa bile, tek başına güvenilecek araç yaklaşımı için Microsoft’un kendi metinlerinde zaten açık bir onay yok.
Bir yanıt yazın