NLP Nedir? Çevirinin Geleceği ve Yapay Zekâ

Dijital Çeviri ve Yerelleştirme Enstitüsü 2022 Yaz Dönemi mezunlarımızdan Berk Yazar’ın kaleminden:

           NLP (Natural Language Processing – Doğal Dil İşleme), temelini yapay zekâ ve dil bilimden alan, disiplinlerarası bir alandır. 1950’lerde yapay zekânın temelleri atılarak başlayan bu uzun yolculuk, 2010 yılından itibaren ve tıp, iletişim, sanayi, ulaşım gibi insanların günlük hayatını etkileyen pek çok alanda büyük atılımlara sahne oldu. Artan ihtiyaçlar nedeniyle dil endüstrisi de bu teknolojinin ışığında şekillenmeye başladı ve birçok doğal dil (NL – natural language) tabanlı alt alan ortaya çıktı.

           Bu yazının amacı, doğal dilin yapay zekâ tarafından işlenebilirliği ve taklit edilebilirliği hakkında çevirmenleri bilgilendirmek, yapay zekânın insan dili konusunda çalışma prensibini temel olarak anlatmak, konuya çeviri perspektifinden bakmak ve elimizde var olan verilerle, bu teknolojinin yakın gelecekte hangi noktaya evrilebileceği hakkında bir yaklaşım sunmaktır.

           İlerleyen yıllarda türevlerine sıkça rastlamayı beklediğimiz Doğal Dil İşleme teknolojisi, özellikle pandemi sonrasında insan dolaşımının artması ve teknolojinin ilerlemesiyle doğru orantılı artacak talep nedeniyle bu iki disiplinden bilim insanlarını çokça meşgul edecek gibi duruyor. Günümüzde NLU (Natural Language Understanding – Doğal Dil Anlama), ve hatta NLG (Natural Language Generation – Doğal Dil Üretme) noktasına kadar varmayı hedefleyen yapay zekâ teknolojisi ile çeşitlenen doğal dil tabanlı alanlar, hâliyle çeviri ile doğrudan bağlantılı. Peki, makine öğrenmesi ve dil tabanlı yapay zekâ çalışmalarının kökeninde var olan bu algoritma üzerine yürütülen çalışmalar nasıl başladı?

           Google, Microsoft gibi teknoloji devleri, yapay zekâ doğal dil öğrenmesi ile ilgili uzun yıllardır çalışmalar yürütüyorlar. Bu çalışmaların bütününü bir insana benzetir ve bu örneklemden yola çıkarsak, yapay zekânın çalışma prensibinin anlaşılması ve daha akılda kalıcı olması mümkün olabilir. Bir insan doğduğu andan itibaren bulunduğu bölgenin kültürü ve diliyle ilgili etrafından istemsizce veri toplar ve bu şekilde birkaç yıl içerisinde duyduğu sesleri, gördüğü jestleri taklit ederek konuşmayı öğrenir. Yani ilk olarak sözlü iletişim kurmayı dener. Yapay zekâ da tıpkı insan gibi taklit etme yoluyla ortaya çıkmıştır, yapay zekâyı kontrol eden yine bir insandır, dolayısıyla insanın dil öğreniminde izlediği yolun bir benzerini izler. Bu nedenle doğal dil öğrenmesi konusunda da ilk durağımız sesle ilgili örneklerdir: bu örneklerden en çarpıcı olanları Text-to-Speech (Metni Sese Dönüştürme) ve Speech-to-Text (Sesi Metne Dönüştürme) teknolojileridir.

Bu teknolojinin temelinde, milyonlarca farklı kombinasyondan oluşan binlerce dilde ses yoluyla söylenen bir sözceyi farklı bir göstergeye en kısa sürede hatasız bir şekilde çevirme çabası yatmaktadır. Bu, yapay zekâdan önce teknik olarak mümkün değildi, ortada çok fazla veri ve çok fazla karar alma işlemi var ise, diğer bir deyişle manuel olarak ve işlemcilerle yapılamayacak kadar büyük bir veriden ve işlemden bahsediyorsak, istenilen şeyin mümkün olması için yapay zekânın dile göre uyarlanması bir zorunluluktu. Örneğin, elimizde içeriğini bildiğimiz 10 farklı ses dosyası (dosyaya kaydedilmiş dijital veri) olduğunu varsayalım. Bu dosyaların her birinde tek bir harf bulunuyor, hangi dosyanın hangi harf olduğunu programın çalışma anında belirlemek gerekiyor. Bu farklı dosyalardan ikisi, “s” ve “a” harfleri yan yana geldiyse bu harfleri birbirinden ayrı sesletmek yerine, bir insan gibi “sa” şeklinde bütünleşik okumasını amaçlıyoruz. Bu doğrultuda, yapay zekâ, bütün dosyaların içeriklerini tarayıp, veritabanındaki dosyalar arasında “s” harfi ile daha önce eşleştirilmiş diğer örnekleri inceleyip, tek tek karşılaştırarak, işlem yaparak, ses dalgalarını analiz ederek bir benzerlik bulmaya çalışıyor ve dosyada kayıtlı harfin sesletiminin “s” olup olmadığına karar veriyor. Yapay zekâ, doğru bir okuma yapabilmek amacıyla, her harf dosyası için, hatta sözceler için bu süreci tekrar ediyor. 10 harften oluşan bir alfabede bile bütün kombinasyonları denemesi gerekiyor, ancak tam da burada asıl amaçtan sapma meydana geliyor: komplike bir süreç olduğu için, hızlı bir çıktı vermesi mümkün olmuyor. Programın çalışma süresi boyunca bu süreci takip etmesi, çok uzun bir zamanın geçmesi anlamına geliyor. Hesabın hızlı yapılması veya hesap yapılmadan sonuca ulaşmak için diğer bütün örneklerin daha önceden hesaplanıp belirlenmiş olması gerekiyor, böylece yapay zekâ hızlıca dosyaya erişip karar verebiliyor. Bu nedenle, yapay zekâ tablosuna bütün dosyalar karşılaştırılarak kaydediliyor.

           Doğal Dil İşleme sürecindeki ikinci önemli öge ise ses dalgalarını üst üste koyup, ses dosyasındaki harfin “s” olup olmadığına karar veren tolerans fonksiyonudur (bias). Fonksiyonun çalışma prensibi genel hatlarıyla bütün dosyaları teste tabi tutmak ve dosyanın “s” harfi içerip içermediğini anlamaktır. Dosyalar teste sokulup kaydediliyor, yeni bir veri girişi ile karşılaşıldığında ise, karşılaştırılacak ses dosyasının frekansından, genliğinden ve uzunluğundan yola çıkarak o anda ilgili veriye giderek, yalnızca ilgili verideki tespit ettiği dosyayı sunarak bir çıktı ortaya koyuyor ve “s” harfini algıladığını söylüyor. En zor aşama olan “algılama” başarıyla tamamlandığında, eldeki bu veriyi, kullanıcının isteğine göre metne veya görsele dönüştürüyor. Yukarıda basitleştirilerek anlatılan bu süreç, bilgisayarların yaygın olarak kullanılmaya başlandığı günden bugüne pratik ediliyor.

           Speech-to-Text ve Text-to-Speech teknolojileri NLP sürecinin ilk aşamasıdır. İnsan beyni de benzer bir yolu takip ederek dil öğrenir. Peki, bu sistem diğer alanlarda nasıl çalışır? Sesle veya yazıyla programa girilen sözceler, metinler, söylemler; yukarıda detaylandırılan süreci izledikten sonra, başka bir dilde nasıl ifade edilir? Bilindiği üzere çeviri, en genel tanımıyla, bir kaynaktan yola çıkıp başka bir ürün yaratma işidir. Çeviribilimin son yıllarda bize sunduğu perspektiften baktığımızda, çevirinin kültürden bağımsız ele alınması mümkün değildir. Kısacası, her iki dili de bilmek, çeviri yapmak için yeterli değildir. Farklı dinamiklerin söz konusu olduğu çeviri sürecinde, yapay zekânın kendisi için var olan bu “kültür sorununu” aşması mümkün olabilir mi? Örneğin, yapay zekâ yerelleştirme yapabilir mi? İnsanların konuştuğu doğal dili işleyerek çevirmene yardımcı mı, yoksa rakip mi olur?

Günümüzde, yapay zekâ, çevirmene yardımcı araçlar sunmaktadır, çevirmenin tek başına yapamayacağı büyüklükteki çevirileri kısa süre içerisinde doğru çıktılar alarak yapmasını sağlamaktadır. Bunu da iki ayrı öge üzerinden yapmaktadır: birinci öge yukarıda anlatılan bias fonksiyonudur, ikinci öge ise veritabanında var olan, makineye kaynak ve erek dilde daha önce öğretilen karşılıkları çeviri olarak sunmaktır. İkinci ögeye çeviri programının İngilizce kümesinde kayıtlı “I” sözcüğünün Türkçe kümesinde “Ben” ile ilişkilendirilmesi örnek olarak verilebilir. Aynı örneği kelimede anlam, cümlede anlam, veya metinde anlam olarak genişletmek günümüz teknolojisinde mümkündür. Tam da bu noktada, neredeyse imkânsız olan; kaynak metnin ilettiği mesajı, makinenin insan eli değmeden, her koşulda hatasız bir şekilde erek dilde iletmektir. Basit komutları yaygın kullanılan dil çiftlerinde çevirmek bir karmaşaya neden olmamaktadır, ancak, günümüz koşullarında, makinenin yapay zekâ yardımıyla her söylemi insan yardımı olmaksızın hatasız çevirmesi, o mesajı erek kültür normlarına uygun ifade etmesi, yerelleştirmesi mümkün değildir. Bu nedenle pre-editing ve post-editing kavramları çevirmenin hayatında önemli bir yer tutmaktadır. NLP ve türevi teknolojiler çevirmenin çeviri için ayırdığı süreyi kısaltma konusunda fayda sağlamaktadır. Çevirmenlere yardım etmek dışında; duygu analizi, hedef kitle tercihlerini saptamak için analizler, gündelik yaşamda kullanılan akıllı asistanlar (Siri, vb.), dünyaya açılmak için kullanılan pazar raporları, Google tarafından geliştirilen, dile ve kültüre uygun doğru çıktılar almayı hedefleyen BERT sistemi, metin analizi, belirli işlevlerle sınırlandırılmış sohbet robotu gibi pek çok farklı alanda kullanılan Doğal Dil İşleme teknolojisi, verilerle beslenmeye devam ettikçe daha organik ve doğru çıktılar vermeye başlayacaktır.  Fakat yapay zekâ, temelleri basit olan, ama üzerinde çalışması çok uzun süren bir alandır ve sınırlandırıldığı sürece doğru çıktılar vermektedir. Google Translate’in çoğunlukla doğru çıktı vermemesinin nedeni, sisteme veri girişinin, veriyi işleme ve diğer çevirilerde kullanma hızından daha fazla olmasıdır. Bu nedenle yapay zekânın çevirmene getirdiği avantajları iyi saptayan, bu avantajlardan yararlanmasını bilen, daha geniş bir perspektiften bakabilen, kısacası “bir kaynaktan yola çıkıp, talepler doğrultusunda başka bir ürün ortaya koymasını bilen” çevirmen, piyasada ayakta kalan çevirmen olacaktır, ünvanı değişse bile…