Yapay Zeka çalışmaları bireyler, topluluklar ve toplum için önemli bir etki yapma potansiyeline sahiptir. Yapay zeka projenizin etkisinin olumlu olduğundan ve bundan etkilenenlere istemeden zarar vermediğinden emin olmak için, siz ve ekibiniz, yapay zeka etiği ve güvenliğini yüksek bir öncelik haline getirmelisiniz.
Bu bölüm, AI etiğini tanıtır ve bir AI projesinin sorumlu bir şekilde teslimi için gereken etik yapı taşlarına üst düzey bir genel bakış sağlar.
Aşağıdaki kılavuz, Veri Etiği Çerçevesini tamamlamak ve tamamlamak için tasarlanmıştır. Veri Etiği Çerçevesi, herhangi bir projede kullanılması gereken bir araçtır.
Bu rehberlik kimler içindir?
Bu kılavuz, aşağıdakiler gibi bir AI projesinin tasarımı, üretimi ve dağıtımına dahil olan herkes içindir:
- Veri bilimcileri
- Veri mühendisleri
- AI uzmanları
- Yöneticiler
- Departman liderleri
Yapay zeka projenizin her aşamasında etik hususlar ortaya çıkacaktır. Bunları ele almak için tüm ekip üyelerinizin uzmanlığını ve aktif işbirliğini kullanmalısınız.
AI etiğinin ne olduğunu anlamak
AI etiği, AI sistemlerinin geliştirilmesi ve kullanımında ahlaki davranışa rehberlik etmek için yaygın olarak kabul edilen standartları kullanan bir dizi değer, ilke ve teknik bütündür.
AI etiği alanı, AI sistemlerinin neden olabileceği bireysel ve toplumsal zararları ele alma ihtiyacından ortaya çıkmıştır. Bu zararlar nadiren kasıtlı bir seçimin sonucu olarak ortaya çıkar – çoğu AI geliştiricisi, kullanıcıların gizliliğini istila eden önyargılı veya ayrımcı uygulamalar veya uygulamalar oluşturmak istemez.
Yapay zeka sistemlerinin istem dışı zarar vermesinin başlıca yolları şunlardır:
Yanlış kullanım – sistemler tasarlandıkları ve tasarlandıkları amaçlar dışında kullanılımıştır.
Şüpheli tasarım – içerik oluşturucular, algoritmik önyargı ve güvenlik riskleriyle ilgili teknik sorunları tam olarak değerlendirmemişlerdir.
İstenmeyen olumsuz sonuçlar – içerik oluşturucular, sistemlerinin etkiledikleri bireyler ve topluluklar üzerindeki olası olumsuz etkilerini tam olarak dikkate almamışlardır.
Yapay zeka etiği alanı, proje ekiplerine etik, adil ve güvenli yapay zeka uygulamaları üretmek için gereken değerleri, ilkeleri ve teknikleri sağlayarak bu zararları azaltır.
AI kullanan projeler için yönetişiminizi değiştirme
Bu bölümde özetlenen ve Alan Turing Enstitüsü’nün AI etiği ve güvenliğine ilişkin ek kılavuzunda ayrıntılı olarak sunulan kılavuz, mümkün olduğunca kapsamlıdır. Ancak, tartışılan tüm konular AI kullanan her projeye eşit olarak uygulanmayacaktır.
Örneğin, istenmeyen e-postaları filtreleyen bir AI modeli, savunmasız çocukları tanımlayan bir modelden daha az etik zorluk sunacaktır. Siz ve ekibiniz, sosyal ve etik etkileri dikkatli bir şekilde değerlendirdikten sonra, yapay zeka kullanan her proje için yönetim prosedürleri ve protokolleri oluşturmalısınız.
AI projeniz için etik yapı taşları oluşturun
AI projenizin sorumlu bir şekilde teslimi için etik yapı taşları oluşturmalısınız. Bu, etik, adil ve güvenli yapay zekanın değerlerini ve ilkelerini hayata geçirmek için sorumlu bir inovasyon kültürünün yanı sıra bir yönetişim mimarisi oluşturmayı içerir.
Sorumlu bir inovasyon kültürü oluşturmak
Bir sorumluluk kültürü oluşturmak ve sürdürmek için siz ve ekibiniz, yapay zeka projenizi tasarlarken, geliştirirken ve devreye alırken 4 hedefe öncelik vermelisiniz. Özellikle, AI projenizin şunlar olduğundan emin olmalısınız:
- Etik olarak izin verilebilir – etkilenen paydaşların ve toplulukların refahı üzerindeki etkilerini göz önünde bulundurun
- Adil ve ayrımcı olmayan – bireyler ve sosyal gruplar üzerinde ayrımcı etkilere sahip olma potansiyelini göz önünde bulundurun, modelinizin sonucunu etkileyebilecek önyargıları azaltın ve tasarım ve uygulama yaşam döngüsü boyunca adalet konularının farkında olun
- Kamu güvenine layık – ürününün güvenliğini, doğruluğunu, güvenilirliğini, güvenliğini ve sağlamlığını mümkün olduğunca garanti etmek
- Gerekçelendirilebilir – modelinizi nasıl tasarladığınız ve uyguladığınızın şeffaflığına ve kararlarının ve davranışlarının gerekçelendirilmesine ve yorumlanabilirliğine öncelik verin
Bu hedeflere öncelik vermek, sorumlu bir inovasyon kültürü oluşturmaya yardımcı olacaktır. Projenize tam olarak dahil edildiğinden emin olmak için aşağıdakilerden oluşan bir yönetişim mimarisi oluşturmalısınız:
- etik değerler çerçevesi
- uygulanabilir ilkeler dizisi
- süreç bazlı yönetişim çerçevesi
Etik değerler çerçevesiyle başlayın
Yapay zekanın sorumlu tasarımını ve kullanımını destekleyen, garanti altına alan ve motive eden etik değerlerin çerçevesini anlamalısınız. Alan Turing Enstitüsü bunu “TOPLAM Değerleri” olarak adlandırır:
- bireylerin onuruna saygı duymak
- Birbirinizle içten, açık ve kapsayıcı bir şekilde bağlantı kurun
- herkesin iyiliğini önemsemek
- sosyal değerlerin, adaletin ve kamu yararının önceliklerini korumak
Bu değerler:
sizin ve ekip üyelerinizin yapay zekanın etik yönlerini keşfetmenizi ve tartışmanızı sağlamak için size erişilebilir bir çerçeve sağlamak.
Sizin ve ekibinizin yapay zeka projenizin etik açıdan kabul edilebilirliğini değerlendirmenize olanak tanıyan iyi tanımlanmış kriterler oluşturun
Alan Turing Enstitüsü’nün AI etiği ve güvenliği konusundaki kapsamlı rehberinde SUM Değerleri hakkında daha fazla kılavuz okuyabilirsiniz.
Bir dizi eyleme geçirilebilir ilke oluşturun
SUM Değerleri, yapay zeka projenizin etik açıdan kabul edilebilirliğini değerlendirmenize yardımcı olsa da, bir yapay zeka sisteminin tasarlanması, geliştirilmesi ve uygulanmasının özelliklerine özel olarak hitap etmezler.
Yapay zeka sistemleri, daha önce insanlar tarafından yapılan görevleri giderek daha fazla yerine getiriyor. Örneğin, AI sistemleri işe alım sürecinin bir parçası olarak özgeçmişleri tarayabilir. Bununla birlikte, insan işe alım uzmanlarının aksine, başvuranların bir işi reddetmesinden doğrudan sorumlu veya sorumlu bir AI sistemini tutamazsınız.
Yapay zeka sisteminin bu hesap verebilirlik eksikliği, yapay zeka sistemlerinin tasarımına ve kullanımına göre uyarlanmış bir dizi eyleme geçirilebilir ilkeye ihtiyaç yaratır. Alan Turing Enstitüsü bunlara ‘HIZLI Yol İlkeleri’ diyor:
- adalet
- Hesap verebilirlik
- Sürdürülebilirlik
- şeffaflık
FAST Track İlkelerini dikkatlice gözden geçirmek size şu konularda yardımcı olur:
- projenizin adil olduğundan emin olun ve önyargı veya ayrımcılığı önleyin
- projenizin güvenli ve güvenilir yapay zeka sağlama kapasitesine olan kamu güvenini koruyun
Adalet
Yapay zeka sisteminiz sosyal veya demografik verileri işliyorsa, bunu minimum düzeyde ayrımcı olmayan zarar vermeyecek şekilde tasarlamalısınız. Bunu yapmak için şunları yapmalısınız:
- yalnızca adil ve hakkaniyetli veri kümelerini kullanın (veri adaleti)
- model mimarinize makul özellikleri, süreçleri ve analitik yapıları dahil edin (tasarım adaleti)
- Sistemin herhangi bir ayrımcı etkiye sahip olmasını önlemek (sonuç adaleti)
- Sistemi tarafsız bir şekilde uygulamak (uygulama adaleti)
Hesap verebilirlik
AI sisteminizi tamamen yanıtlanabilir ve denetlenebilir olacak şekilde tasarlamalısınız. Bunu yapmak için şunları yapmalısınız:
- Projenin tasarım ve uygulama yaşam döngüsünde yer alan tüm roller için sürekli bir sorumluluk zinciri oluşturmak
- Tüm proje boyunca gözetim ve incelemeye izin vermek için aktivite izlemeyi uygulamak
Sürdürülebilirlik
- Bu sistemlerin teknik sürdürülebilirliği nihai olarak doğrulukları, güvenilirlikleri, güvenlikleri ve sağlamlıkları dahil olmak üzere güvenliklerine bağlıdır.
Tasarımcıların ve kullanıcıların aşağıdakilerden haberdar olmasını sağlamalısınız:
- AI sistemlerinin bireyler ve toplum üzerinde sahip olabileceği dönüştürücü etkiler
- AI sisteminizin gerçek dünyadaki etkisi
Şeffaflık
Yapay zeka sistemlerinin tasarımcıları ve uygulayıcıları şunları yapabilmelidir:
- Etkilenen paydaşlara bir modelin belirli bir bağlamda nasıl ve neden bu şekilde performans gösterdiğini açıklamak
- Sonuçlarının ve tasarımının ve kullanımının arkasındaki süreçlerin etik olarak izin verilebilirliğini, ayrımcı zarar vermemesini ve kamu güvenilirliğini gerekçelendirin.
Bu kriterleri derinlemesine değerlendirmek için Alan Turing Enstitüsü’nün AI etiği ve güvenliği konusundaki kılavuzuna başvurmalısınız.
Süreç tabanlı bir yönetişim çerçevesi oluşturun
Yapay zekayı etik, adil ve güvenli bir şekilde kullandığınızdan emin olmanın son yöntemi süreç tabanlı bir yönetişim çerçevesi oluşturmaktır. Alan Turing Enstitüsü buna ‘PBG Çerçevesi’ diyor. Birincil amacı, bir hizmet içinde yapay zekanın uygulanmasına SUM Değerlerini ve FAST Track İlkelerini entegre etmektir.
AI projeniz için iyi bir PBG Çerçevesi oluşturmak, ekibinize aşağıdakilere ilişkin bir genel bakış sağlayacaktır:
- ilgili ekip üyeleri ve her bir yönetişim eyleminde yer alan roller
- yönetişim hedeflerine ulaşmak için müdahalenin ve hedeflenen değerlendirmenin gerekli olduğu iş akışının ilgili aşamaları
- Herhangi bir değerlendirme, takip eylemi, yeniden değerlendirme ve sürekli izleme için açık zaman çerçeveleri
- Günlüğe kaydetme etkinliği ve uçtan uca denetlenebilirliği destekleyecek mekanizmaların uygulanması için açık ve iyi tanımlanmış protokoller