Etkinleştirme (aktivasyon) fonksiyonları

Python ile TensorFlow’a Giriş

Isaiah Hull

Visiting Associate Professor of Finance, BI Norwegian Business School

Aktivasyon fonksiyonu nedir?

  • Tipik bir gizli katmanın bileşenleri
    • Doğrusal: Matris çarpımı
    • Doğrusal olmayan: Aktivasyon fonksiyonu
Python ile TensorFlow’a Giriş

Doğrusal olmayanlık neden önemlidir

Bu görsel, fatura tutarı ve yaşın temerrütü tahmin etmek için kullanıldığı basit bir ağı gösterir.

Python ile TensorFlow’a Giriş

Doğrusal olmayanlık neden önemlidir

Bu görsel, 30 yaş ve altı borçlular için kredi kartı fatura tutarı ile temerrüt arasındaki ilişkiyi gösterir.

Python ile TensorFlow’a Giriş

Basit bir örnek

import numpy as np
import tensorflow as tf

# Örnek borçlu özelliklerini tanımlayın
young, old = 0.3, 0.6
low_bill, high_bill = 0.1, 0.5
# Tüm özellik kombinasyonları için matris çarpımı adımını uygulayın
young_high = 1.0*young + 2.0*high_bill
young_low = 1.0*young + 2.0*low_bill
old_high = 1.0*old + 2.0*high_bill
old_low = 1.0*old + 2.0*low_bill
Python ile TensorFlow’a Giriş

Basit bir örnek

# Gençler için temerrüt tahminlerindeki fark
print(young_high - young_low)

# Yaşlılar için temerrüt tahminlerindeki fark
print(old_high - old_low)
0.8 
0.8
Python ile TensorFlow’a Giriş

Basit bir örnek

# Gençler için temerrüt tahminlerindeki fark
print(tf.keras.activations.sigmoid(young_high).numpy() - 
tf.keras.activations.sigmoid(young_low).numpy())

# Yaşlılar için temerrüt tahminlerindeki fark
print(tf.keras.activations.sigmoid(old_high).numpy() - 
tf.keras.activations.sigmoid(old_low).numpy())
0.16337568
0.14204389
Python ile TensorFlow’a Giriş

Sigmoid aktivasyon fonksiyonu

  • Sigmoid aktivasyon fonksiyonu
    • İkili sınıflandırma
    • Düşük seviye: tf.keras.activations.sigmoid()
    • Yüksek seviye: sigmoid

Görüntü, -10 ile 10 aralığında sigmoid aktivasyon fonksiyonunun grafiğini gösteriyor.

Python ile TensorFlow’a Giriş

ReLU aktivasyon fonksiyonu

  • ReLU aktivasyon fonksiyonu
    • Gizli katmanlar
    • Düşük seviye: tf.keras.activations.relu()
    • Yüksek seviye: relu

Görüntü, -10 ile 10 aralığında ReLU aktivasyon fonksiyonunun grafiğini gösteriyor.

Python ile TensorFlow’a Giriş

Softmax aktivasyon fonksiyonu

  • Softmax aktivasyon fonksiyonu
    • Çıkış katmanı (>2 sınıf)
    • Düşük seviye: tf.keras.activations.softmax()
    • Yüksek seviye: softmax
Python ile TensorFlow’a Giriş

Sinir ağlarında aktivasyon fonksiyonları

import tensorflow as tf
# Girdi katmanını tanımlayın
inputs = tf.constant(borrower_features, tf.float32)
# Yoğun katman 1'i tanımlayın
dense1 = tf.keras.layers.Dense(16, activation='relu')(inputs)
# Yoğun katman 2'yi tanımlayın
dense2 = tf.keras.layers.Dense(8, activation='sigmoid')(dense1)
# Çıkış katmanını tanımlayın 
outputs = tf.keras.layers.Dense(4, activation='softmax')(dense2)
Python ile TensorFlow’a Giriş

Hadi pratik yapalım!

Python ile TensorFlow’a Giriş

Preparing Video For Download...