Autoencoding ile Kirlenmiş Dokümanları Temizleme

Bir yapay sinir ağı yöntemi olan Autoencoding’ı biraz daha detaylı inceleme fırsatım oldu. Öğrendiklerimi sırasıyla paylaşmaya çalışayım.

Autoencoding nedir?

Bahsettiğim gibi bir yönü olan yapay sinir ağı çeşididir. “Unsupervised”dır yani kullandığı veriler için bir etikete ihtiyaç duymaz. Temelinde bir veri sıkıştırma algoritmasıdır, diğer algoritmalardan farklı olarak;

+ Sıkıştırma algoritması üzerinde birilerinin çalışması gerekmez, yeni veri ile sürekli kendini geliştirebilir, tabi ağ üzerinde iyileştirmeler ama bu standart veri sıkıştırma çalışmalarının yanında küçük kalacaktır.

– Veriyi nasıl sıkıştıracağını veri setinden öğrenmesi gerekir.

– Eğitildiği veri setine benzer verileri sıkıştırabilir. Örneğin araba görselleri ile eğitildiğinde kedi görsellerini sıkıştırması yüksek hata içeren sonuçlar çıkaracaktır.

– Kayıp kaçınılmazdır.

Son derece spesifik alanda veri sıkıştırabiliyor olması kullanımını çok kısıtladığı için sıkıştırma problemlerinde kullanılması pratik olmuyor. Veri görselleştirmede verinin boyutlarını azaltmak ve veri parazitlerini gidermek(data denoising) için kullanılabilir. Birazdan yapacağım örnekte de üzerinde leke olan(parazit) görsellerin üzerindeki yazıları Autoencoding ile okumaya çalışacağız.

Ağın temel çalışma prensibi şu şekildedir. Giriş ve çıkış düğümleri(node) aynı sayıdadır ve çıkış düğümünün amacı bir tahmin yapmak değil, giriş düğümünü taklit edebilmektir. Diğer yöntemlerden öne çıkan farkı bu bence.

Giriş düğümleri, kendisinden daha az sayıda saklı düğüme(hidden layer) belirli ağırlık katsayıları(weight) ile yeniden düzenlenerek aktarılır(encode). Veri sıkıştırma becerisi bu adımda ortaya çıkıyor çünkü elimizdeki verilerden daha az sayıda veri düğümlerine sahibiz ve eğer uygun ağırlık katsayılarını bulabilirsek bu işlemi geri çevirerek giriş verimize yakın bir veri elde edebiliriz(decode).

https://probablydance.com/2016/04/30/neural-networks-are-impressively-good-at-compression/

Ağırlık katsayılarının hesaplanabilmesi için çıkış değerleri ile giriş değerleri arasındaki fark ölçülür ve öğrenme hızına(learning rate) göre ağırlıklar güncellenip tekrar çıkış verileri ve hata hesaplanır. Tabi bütün bunları Keras-Tensorflow ikilisi bizim için yapıyor olacak.

Peki bu hem sıkıştırma algoritmalarının hem de diğer öğrenme tekniklerinin gerisinde kalan Autoencoding nasıl uygulanabilir. Şurada ödülsüz bir Kaggle yarışması var. Sanal da olsa bir şekilde kirletilmiş olan içerisinde yazı bulunan görselleri bizden temizlememizi istiyor. Asıl amaç burada görselden yazıya çevirmek ama bu yazının konusu dışında olduğu için o kısmı daha sonra araştıracağım, şimdilik temizleme kısmı ile ilgileniyorum.

Toplam 3 veri var yarışmada; test, train ve train_cleaned. Bir kaç denemeden sonra şu şekilde ilerlemeye karar verdim; temiz olan train görselleri ile geçici bir veri seti oluşturup daha sonra buradaki görselleri 8 piksellik kareler halinde bölerek yeni, daha kullanışlı ve daha çok elemanlı bir veri seti elde etmek.

Kod üzerinde açıklamalar yapmaya çalıştım. Ayrıca şu Kaggle Notebookununda da bulabilirsiniz. Çıkan sonuçları gönderdiğimde ~0.17(RMS) hata verdi, optimize edilmemiş olmasına rağmen fena değil.

Detaylı bilgi için yararlandığım diğer kaynaklar;
https://probablydance.com/2016/04/30/neural-networks-are-impressively-good-at-compression/
https://en.wikipedia.org/wiki/Autoencoder
https://blog.keras.io/building-autoencoders-in-keras.html

Bir Cevap Yazın