Skip to content

ayyucekizrak/BERTileSentimentAnaliz

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

12 Commits
 
 
 
 
 
 

Repository files navigation

BERT ile Sentiment Analizi

(BERT: Bidirectional Encoder Representations for Transformers)


Bilinse iyi olurlar

  • Orta düzey Python ve NumPy ve Pandas kütüphanelerine aşina olmak
  • PyTorch kullanmaya yatkın olmak
  • Derin Öğrenme ve Dil Modellerinin temelleri bilgisi (özellikle BERT)

Harika bir Türkçe Kaynak: Susam Sokağı’ndan Doğal Dil İşlemeye - Yazan: Başak Buluz Kömeçoğlu

Open In Colab Kodları buradan açabilirsiniz.


GİRİŞ

Resim Kaynak: Tengyart / Unsplash

Terminolojiler

  • NPL Görevleri: İnsanların kullandıkları dillerle ilgili görevleri kapsar. Dil çevirisi, metin sınıflandırma, duygu durumu kestirimi, okuduğunu anlama, isimlendirilmemiş varlıkları tanıma (metindeki kişiyi, şirketi, yeri vb. isimlerin tanınması)
  • Dil Modelleri: Bir dizi kelime verildiğinde (Google sorgusu otomatik tamamlama vb.) en olası sonraki kelimeleri (ve olasılıklarını) tahmin edebilen modellerdir. Bu tür modellerin, sıradan bir sonraki kelime tahmini üzerine eğitilmiş olsalar da, bir dizi başka görev için yararlı olduğu bilinmektedir. Klasik dil modelleri kelimelerin soldan sağa akışını tahmin ederken BERT hem önceki hem sonraki -yani bidirectional- bir yaklaşıma sahiptir. Yani geçmiş ve gelecek bilgilerinden faydalanmaktadır.
  • Sıfır / Bir / Az Shot öğrenme: Modelin, o görev için sıfır / bir / birkaç örnek görerek yeni bir görevi öğrenme yeteneğini ifade eder.
  • Transfer Öğrenme: Bir görev için bir model eğittiğiniz (görüntülerde örnek nesne algılama), ancak diğer bazı farklı görevler için bundan yararlanma ve geliştirme becerisi olan Derin Öğrenme kavramını ifade eder. Bilgisayarlı görüdeki (Computer vision) büyük başarıdan sonra, günümüzde NLP içinde güncel modeller sayesinde mümkün olmaktadır.
  • Transformatör (Transformers) Modelleri: Öncelikle NLP'de kullanılan ve bugünlerde en son teknoloji NLP mimarilerinin temel yapı taşını oluşturan derin öğrenme modelleri ailesi. Yalnızca dikkat mekanizmalarına dayanan, yineleme ve evrişimleri tamamen ortadan kaldıran yeni ve basit bir ağ mimarisidir. Makine dil çevirileri konusunda özellikle tercih edilir. Kaynak: https://arxiv.org/pdf/1706.03762.pdf

BERT nedir?

Google şirketi tarafından geliştirilmiştir. Büyük bir veri kümesi ile eğitilen genelleştirilmiş bir dil modelidir. Dildeki tüm dil bilimsel yapıyı bir çerçevede tutmuş, gerekli olduğunda diğer küçük dil işleme görevleri için transfer edilmesine olanak sağlamaktadır. Böylece bu küçük dil görevleri için minimal düzeye inmesinin yanı sıra 11 doğal dil işleme görevi için state-of-the-art başarı sergilemiştir.
Uzun süreli kelimeler arasında bağımlılıkları belirleme yeteneği ve başarısı yüksek olan çift yönlü kodlayıcı modelidir. GPT-n ve diğer dil modellerinden ayıran özellikleri aşağıdaki gibidir:

  • 24 Transformer bloğu ve 1024 gizli katmanı ve 349M parametre hesaplayan büyük bir modeldir.
  • 800 milyon İngilizce kelime (BooksCorpus) ve 2.5 Milyar İngilizce kelime (Wikipedia) dahil, toplam 3.3 milyar kelimelik korpus üzerinde eğitilmiştir.
  • Bu modelin eğitimi için 16 TPU’ya ihtiyaç duyulmuştur.

SMILE Twitter veri seti

Wang, Bo; Tsakalidis, Adam; Liakata, Maria; Zubiaga, Arkaitz; Procter, Rob; Jensen, Eric (2016): SMILE Twitter Emotion veri kümesi. figshare.

Veri kümesi: https://doi.org/10.6084/m9.figshare.3187909.v2 Daha fazla bilgi için:

HuggingFace Kaynak Dokümanı

[BERT için Kaynak Doküman](https://characters.fandom.com/wiki/Bert_(Sesame_Street)

About

BERT ile Sentiment Analizi

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages