Sepetim (0) Toplam: 0,00TL
%20
Mühendislik,Bilgisayar Mühendisliği, - Akademisyen Kitabevi - PyTorch

PyTorch ile Derin Öğrenme: Kavramdan Uygulamaya

Liste Fiyatı : 625,00TL
İndirimli Fiyat : 500,00TL
Kazancınız : 125,00TL
Taksitli fiyat : 3 x 166,67TL
Havale/EFT ile : 490,00TL
9786253755065
147166
PyTorch ile Derin Öğrenme: Kavramdan  Uygulamaya
PyTorch ile Derin Öğrenme: Kavramdan Uygulamaya
500.00

TANITIM YAZISI
Bu kitap, yalnızca bir derin öğrenme eğitimi sunmayı değil; sizi fikirden uygulamaya,
koddan projeye, modelden ürüne uzanan bütünlüklü bir yolculuğa çıkarmayı
amaçlıyor.
Yapay zekâ artık bir araştırma konusu olmaktan çıkıp gündelik hayatın merkezine
yerleşti. Görüntü tanıma, ses analizi, metin yorumlama, hastalık tahmini, üretim
hattı kontrolü gibi pek çok alanda derin öğrenme modelleri karar veriyor, yönlendiriyor
ve tahmin ediyor. Ancak bu sistemleri sadece kullanmakla kalmayıp sıfırdan
kurabilmek, doğru yöntemle eğitebilmek ve gerçek problemlere uygulayabilmek,
günümüz mühendislerinin ve araştırmacılarının sahip olması gereken temel bir beceri
hâline geldi.
İşte bu kitap, derin öğrenmeyi öğrenmek isteyen herkes için yalın, sistematik
ve pratik bir yaklaşım sunmak amacıyla hazırlandı. Konular, en temel kavramlardan
başlayarak adım adım yükselen bir yapıda işlenmiştir. Yapay sinir ağlarının nasıl
çalıştığını anlamakla başlayıp, gerçek veri kümeleri üzerinde CNN, RNN, Transformer
gibi modellerin nasıl eğitileceğini, değerlendirileceğini ve optimize edileceğini
öğreniyorsunuz.
İÇİNDEKİLER
BÖLÜM 1 Derin Öğrenmenin Temelleri ve PyTorch’a Giriş

1.1. Yapay Zekâ (AI), Makine Öğrenmesi (ML) ve Derin Öğrenme (DL) Nedir?
1.2. AI → ML → DL Arasındaki Hiyerarşik İlişki
1.3. Veriye Dayalı Öğrenme Türleri: Denetimli, Denetimsiz, Yarı Denetimli ve
Pekiştirmeli Öğrenme
1.4. Makine Öğrenmesinde Model, Hipotez ve Fonksiyon Kavramları
1.5. Parametre ve Hiperparametre Arasındaki Fark: Kavramsal ve İşlevsel Bir Ayrım
1.6. Bias, Variance ve Generalization Nedir?
1.7. Aşırı Öğrenme (Overfitting), Yetersiz Öğrenme (Underfitting)
1.8. Derin Öğrenmeye Neden İhtiyaç Duyuldu?
1.9. Gerçek Dünya Uygulama Alanları: Görüntü, Metin, Ses, Sağlık, Finans
BÖLÜM 2 Sinir Ağlarının Yapısı ve Bileşenleri
2.1. Yapay nöron (Perceptron) ve çok katmanlı algılayıcı (MLP)
2.2. İleri Beslemeli Ağlar (Feedforward Networks)
2.3. Katman Türleri: Dense, Dropout, BatchNorm, Aktivasyon
2.4. Aktivasyon Fonksiyonları: Sigmoid, Tanh, Relu, Leakyrelu, GELU
2.5. Hesaplama Grafiği Ve Otomatik Türev
2.6. Parametre Güncelleme: Gradient Descent ve Türevleri (SGD, Adam, RMSprop)
2. 7. Kayıp (Loss) ve Maliyet (Cost) Fonksiyonları
2. 8. PyTorch Mimarisi: Modül, Katman, Tensör, Optimizer, Loss Function
BÖLÜM 3 Tensörler ve Pytorch Temelleri
3.1. Tensor Nedir? Vektör, Matris ve Yüksek Boyutlu Tensör Farkları
3.2. PyTorch tensör işlemleri
3.3. GPU Kullanımı ve CUDA Mimarisi
3.4. requires_grad, backward() ve .grad: Otomatik Türev Mekanizması (Autograd)
3.5. PyTorch ile NumPy Arasındaki Farklar
3.5. PyTorch’ta Random Seed Kontrolü ve Tekrar Üretilebilirlik (Reproducibility)
3.7. Basit Örnek: Tensör Tabanlı Lineer Regresyon (PyTorch)
BÖLÜM 4 PyTorch ile Eğitim Süreci ve Model Değerlendirme
4.1. Eğitim (Training) Ve Test (Inference) Aşamaları
4.2. Eğitim Döngüsü Nasıl Kurulur?
4.3. nn.Module ve forward() Fonksiyonu Nedir?
4.4. torch.optim ile Optimizer Kullanımı
4.5. Batch, Mini-Batch ve Epoch Kavramları
4.6. Öğrenme Oranı (Learning Rate) Seçimi ve Planlaması
4.7. model.train() ve model.eval() Modları
4.8. Early Stopping ve Model Checkpointing: Aşırı Öğrenmeye Karşı Stratejiler
BÖLÜM 5 Veri Hazırlama ve PyTorch Dataset API
5.1. PyTorch’ta torch.utils.data.Dataset ve DataLoader Sınıfları
5.2. Görüntü, Metin ve Zaman Serisi Verilerinin İşlenmesi
5. 3. torchvision.transforms ve Custom Transform Yazımı
5. 4. Data Augmentation Teknikleri: Random Crop, Flip, Noise, Blur
5. 5. Dönüştürme İşlemleri: ToTensor, Normalize ve Özel Ön İşleyiciler
5. 6. Batch Shuffle, num_workers ve Bellek Yönetimi
5. 7. Custom Dataset Sınıfı Oluşturma
BÖLÜM 6 Görüntü Tanıma için CNN (ConvolutIonal Neural Networks)
6.1. Konvolüsyon işlemi nedir?
6.2. Filtreler, Kernel, Padding, Stride Kavramları
6.3. Pooling ve Pooling Yöntemleri (Max, Average, Global Pooling)
6.4. Softmax ve Flatten Katmanları
6.5. Sınıflandırma Metrikleri
6.6. CNN Mimarisi ve bir Sınıflandırma Örneği
6.7. Feature Map Nedir?
6.8. nn.Sequential ile Model Yazımı

6.9. GPU ile Eğitim Örneği – Derin Öğrenmede Donanımın Gücünü Kullanmak
BÖLÜM 7 İleri Seviye CNN Yapıları ve Transfer Öğrenme
7.1. VGG, ResNet, DenseNet, EfficientNet Transfer Öğrenme Metotları
7.2. Residual Connection ve Bottleneck Yapısı
7.3. Pre-trained Model Kullanımı ve Fine-Tuning
7.4. Feature Extractor Olarak CNN Kullanımı
7.5. Transfer Öğrenme ile Küçük Veri Setlerinde Başarı Artırma
BÖLÜM 8 Düzenleme ve Aşırı Öğrenmeyi Önleme Teknikleri
8.1. Dropout ve SpatialDropout
8.2. L1 ve L2 Düzenleme (Weight Decay)
8.3. Batch Normalization
8.4. Early Stopping ve Learning Rate Scheduler
8.5. Model Karmaşıklığı Kontrolü (Parametre Sayısı)
BÖLÜM 9 RNN, LSTM, TCN ve GRU
9.1. Zaman Serisi Ve Doğal Dil İşleme Temelleri
9.2. nn.RNN, nn.LSTM ve nn.GRU Yapıları ve Farkları
9.3. Gizli Durum (Hidden State) ve Hücre Durumu (Cell State)
9.4. Sequence Veri Hazırlama (Padding, Pack_Padded)
9.5. Uygulama: Metin Üretimi, Duygu Analizi, Zaman Serisi Tahmini
BÖLÜM 10 Transformers ve Attentıon Mekanizmaları
10.1. Attention Nedir, Neden Kullanılır?
10.2. Self-Attention ve Multi-Head Attention
10.3. Transformer Mimarisinin Katmanları
10.4. BERT, GPT Gibi Modellerin Temelleri
10.5. Huggingface Transformers Ile Hazır Model Kullanımı
BÖLÜM 11 Doğal Dil İşleme (NLP) Uygulamaları
11.1. Tokenization Ve Embedding Kavramı
11.2. Word2Vec, Glove, Fasttext Kullanımı
11.3. Embedding Katmanı Ve Sequence Modelleme
11.4. Text Classification ve Sentiment Analysis
11.5. Sequence-To-Sequence Modeli ile Çeviri Örneği
BÖLÜM 12 Otomatik Kodlayıcılar (Autoencoders)
12.1. Encoder-Decoder Mantığı
12.2. Lineer ve Konvolüsyonel Autoencoder
12.3. Gürültülü Autoencoder (Denoising AE)
12.4. Latent Space Görselleştirme
12.5. VAE (Variational Autoencoder)
BÖLÜM 13 Generatıve Adversarıal Networks (GAN)
13.1. GAN Mimarisi: Generator vs Discriminator
13.2. Gerçek vs Sahte Örnek Üretimi
13.3. GAN Eğitim Dengesizlikleri ve Çözüm Yolları
13.4. Basit bir GAN ile Çiçek Üretimi
13.5. DCGAN, CycleGAN, StyleGAN Modeller
BÖLÜM 14 Model Kaydetme, Yükleme ve Servis Etme
14.1. torch.save() ve torch.load() Kullanımı
14.2. state_dict Mantığı
14.3. Eğitim Sonrası Modeli Inference (Çıkarım) İçin Hazırlama
14.4. Torchscript ve ONNX İle Model Taşınabilirliği
14.5. Model Versiyonlama Ve Üretim Ortamı Için
En Iyi Uygulamalar
BÖLÜM 15 Performans İzleme ve Model Takibi
15.1. torch.utils.tensorboard, matplotlib
15.2. Eğitim Eğrileri: Loss, Accuracy, Precision-Recall

15.3. AUC-ROC ve Confusion Matrix Görselleştirmeleri
15.4. Model Loglama ve Sürüm Takibi
BÖLÜM 16 Hiperparametre Optimizasyonu
16.1. Öğrenme Oranı, Dropout Oranı, Batch Size
16.2. Grid Search, Random Search, Bayesian Optimization
16.3. Optuna ve Ray Tune Tanıtımı
16.4. Otomatik Deney Yönetimi
BÖLÜM 17 PyTorch LIghtnIng ile Temiz Eğitim
17.1. PyTorch Lightning nedir?
17.2 LightningModule ve Trainer Sınıfı
17.3. Kodun Sadeleşmesi, Yeniden Kullanılabilirlik
17.4. Callback Yapıları İle Erken Durdurma ve Model Kaydı
17.5 Dağıtık Eğitim Desteği
BÖLÜM 18 Çoklu GPU ve Dağıtık Eğitim
18.1. DataParallel vs DistributedDataParallel
18.2. GPU Bellek Yönetimi
18.3. Batch Büyüklüğü Optimizasyonu
18.4 Eğitim Hızlandırma Teknikleri (Mixed Precision, AMP)
BÖLÜM 19 Gerçek Dünya Projeleri ve Endüstri Uygulamaları
19.1. Görüntü sınıflandırma
19.2. Sinyal Sınıflandırma (EKG)
19.3. NLP (metin analizleri, spam tespiti)
19.4. Anomali tespiti (finans, IoT, siber güvenlik) 335
BÖLÜM 20 Bitirme Projesi – Sıfırdan Model Geliştirme Süreci
20.1. Proje Fikri Oluşturma
20.2. Veri Keşfi ve Ön İşleme
20.4. Performans Değerlendirme
20.5. Sunum ve Model Deployment
Kaynaklar

  • Açıklama
    • TANITIM YAZISI
      Bu kitap, yalnızca bir derin öğrenme eğitimi sunmayı değil; sizi fikirden uygulamaya,
      koddan projeye, modelden ürüne uzanan bütünlüklü bir yolculuğa çıkarmayı
      amaçlıyor.
      Yapay zekâ artık bir araştırma konusu olmaktan çıkıp gündelik hayatın merkezine
      yerleşti. Görüntü tanıma, ses analizi, metin yorumlama, hastalık tahmini, üretim
      hattı kontrolü gibi pek çok alanda derin öğrenme modelleri karar veriyor, yönlendiriyor
      ve tahmin ediyor. Ancak bu sistemleri sadece kullanmakla kalmayıp sıfırdan
      kurabilmek, doğru yöntemle eğitebilmek ve gerçek problemlere uygulayabilmek,
      günümüz mühendislerinin ve araştırmacılarının sahip olması gereken temel bir beceri
      hâline geldi.
      İşte bu kitap, derin öğrenmeyi öğrenmek isteyen herkes için yalın, sistematik
      ve pratik bir yaklaşım sunmak amacıyla hazırlandı. Konular, en temel kavramlardan
      başlayarak adım adım yükselen bir yapıda işlenmiştir. Yapay sinir ağlarının nasıl
      çalıştığını anlamakla başlayıp, gerçek veri kümeleri üzerinde CNN, RNN, Transformer
      gibi modellerin nasıl eğitileceğini, değerlendirileceğini ve optimize edileceğini
      öğreniyorsunuz.
      İÇİNDEKİLER
      BÖLÜM 1 Derin Öğrenmenin Temelleri ve PyTorch’a Giriş

      1.1. Yapay Zekâ (AI), Makine Öğrenmesi (ML) ve Derin Öğrenme (DL) Nedir?
      1.2. AI → ML → DL Arasındaki Hiyerarşik İlişki
      1.3. Veriye Dayalı Öğrenme Türleri: Denetimli, Denetimsiz, Yarı Denetimli ve
      Pekiştirmeli Öğrenme
      1.4. Makine Öğrenmesinde Model, Hipotez ve Fonksiyon Kavramları
      1.5. Parametre ve Hiperparametre Arasındaki Fark: Kavramsal ve İşlevsel Bir Ayrım
      1.6. Bias, Variance ve Generalization Nedir?
      1.7. Aşırı Öğrenme (Overfitting), Yetersiz Öğrenme (Underfitting)
      1.8. Derin Öğrenmeye Neden İhtiyaç Duyuldu?
      1.9. Gerçek Dünya Uygulama Alanları: Görüntü, Metin, Ses, Sağlık, Finans
      BÖLÜM 2 Sinir Ağlarının Yapısı ve Bileşenleri
      2.1. Yapay nöron (Perceptron) ve çok katmanlı algılayıcı (MLP)
      2.2. İleri Beslemeli Ağlar (Feedforward Networks)
      2.3. Katman Türleri: Dense, Dropout, BatchNorm, Aktivasyon
      2.4. Aktivasyon Fonksiyonları: Sigmoid, Tanh, Relu, Leakyrelu, GELU
      2.5. Hesaplama Grafiği Ve Otomatik Türev
      2.6. Parametre Güncelleme: Gradient Descent ve Türevleri (SGD, Adam, RMSprop)
      2. 7. Kayıp (Loss) ve Maliyet (Cost) Fonksiyonları
      2. 8. PyTorch Mimarisi: Modül, Katman, Tensör, Optimizer, Loss Function
      BÖLÜM 3 Tensörler ve Pytorch Temelleri
      3.1. Tensor Nedir? Vektör, Matris ve Yüksek Boyutlu Tensör Farkları
      3.2. PyTorch tensör işlemleri
      3.3. GPU Kullanımı ve CUDA Mimarisi
      3.4. requires_grad, backward() ve .grad: Otomatik Türev Mekanizması (Autograd)
      3.5. PyTorch ile NumPy Arasındaki Farklar
      3.5. PyTorch’ta Random Seed Kontrolü ve Tekrar Üretilebilirlik (Reproducibility)
      3.7. Basit Örnek: Tensör Tabanlı Lineer Regresyon (PyTorch)
      BÖLÜM 4 PyTorch ile Eğitim Süreci ve Model Değerlendirme
      4.1. Eğitim (Training) Ve Test (Inference) Aşamaları
      4.2. Eğitim Döngüsü Nasıl Kurulur?
      4.3. nn.Module ve forward() Fonksiyonu Nedir?
      4.4. torch.optim ile Optimizer Kullanımı
      4.5. Batch, Mini-Batch ve Epoch Kavramları
      4.6. Öğrenme Oranı (Learning Rate) Seçimi ve Planlaması
      4.7. model.train() ve model.eval() Modları
      4.8. Early Stopping ve Model Checkpointing: Aşırı Öğrenmeye Karşı Stratejiler
      BÖLÜM 5 Veri Hazırlama ve PyTorch Dataset API
      5.1. PyTorch’ta torch.utils.data.Dataset ve DataLoader Sınıfları
      5.2. Görüntü, Metin ve Zaman Serisi Verilerinin İşlenmesi
      5. 3. torchvision.transforms ve Custom Transform Yazımı
      5. 4. Data Augmentation Teknikleri: Random Crop, Flip, Noise, Blur
      5. 5. Dönüştürme İşlemleri: ToTensor, Normalize ve Özel Ön İşleyiciler
      5. 6. Batch Shuffle, num_workers ve Bellek Yönetimi
      5. 7. Custom Dataset Sınıfı Oluşturma
      BÖLÜM 6 Görüntü Tanıma için CNN (ConvolutIonal Neural Networks)
      6.1. Konvolüsyon işlemi nedir?
      6.2. Filtreler, Kernel, Padding, Stride Kavramları
      6.3. Pooling ve Pooling Yöntemleri (Max, Average, Global Pooling)
      6.4. Softmax ve Flatten Katmanları
      6.5. Sınıflandırma Metrikleri
      6.6. CNN Mimarisi ve bir Sınıflandırma Örneği
      6.7. Feature Map Nedir?
      6.8. nn.Sequential ile Model Yazımı

      6.9. GPU ile Eğitim Örneği – Derin Öğrenmede Donanımın Gücünü Kullanmak
      BÖLÜM 7 İleri Seviye CNN Yapıları ve Transfer Öğrenme
      7.1. VGG, ResNet, DenseNet, EfficientNet Transfer Öğrenme Metotları
      7.2. Residual Connection ve Bottleneck Yapısı
      7.3. Pre-trained Model Kullanımı ve Fine-Tuning
      7.4. Feature Extractor Olarak CNN Kullanımı
      7.5. Transfer Öğrenme ile Küçük Veri Setlerinde Başarı Artırma
      BÖLÜM 8 Düzenleme ve Aşırı Öğrenmeyi Önleme Teknikleri
      8.1. Dropout ve SpatialDropout
      8.2. L1 ve L2 Düzenleme (Weight Decay)
      8.3. Batch Normalization
      8.4. Early Stopping ve Learning Rate Scheduler
      8.5. Model Karmaşıklığı Kontrolü (Parametre Sayısı)
      BÖLÜM 9 RNN, LSTM, TCN ve GRU
      9.1. Zaman Serisi Ve Doğal Dil İşleme Temelleri
      9.2. nn.RNN, nn.LSTM ve nn.GRU Yapıları ve Farkları
      9.3. Gizli Durum (Hidden State) ve Hücre Durumu (Cell State)
      9.4. Sequence Veri Hazırlama (Padding, Pack_Padded)
      9.5. Uygulama: Metin Üretimi, Duygu Analizi, Zaman Serisi Tahmini
      BÖLÜM 10 Transformers ve Attentıon Mekanizmaları
      10.1. Attention Nedir, Neden Kullanılır?
      10.2. Self-Attention ve Multi-Head Attention
      10.3. Transformer Mimarisinin Katmanları
      10.4. BERT, GPT Gibi Modellerin Temelleri
      10.5. Huggingface Transformers Ile Hazır Model Kullanımı
      BÖLÜM 11 Doğal Dil İşleme (NLP) Uygulamaları
      11.1. Tokenization Ve Embedding Kavramı
      11.2. Word2Vec, Glove, Fasttext Kullanımı
      11.3. Embedding Katmanı Ve Sequence Modelleme
      11.4. Text Classification ve Sentiment Analysis
      11.5. Sequence-To-Sequence Modeli ile Çeviri Örneği
      BÖLÜM 12 Otomatik Kodlayıcılar (Autoencoders)
      12.1. Encoder-Decoder Mantığı
      12.2. Lineer ve Konvolüsyonel Autoencoder
      12.3. Gürültülü Autoencoder (Denoising AE)
      12.4. Latent Space Görselleştirme
      12.5. VAE (Variational Autoencoder)
      BÖLÜM 13 Generatıve Adversarıal Networks (GAN)
      13.1. GAN Mimarisi: Generator vs Discriminator
      13.2. Gerçek vs Sahte Örnek Üretimi
      13.3. GAN Eğitim Dengesizlikleri ve Çözüm Yolları
      13.4. Basit bir GAN ile Çiçek Üretimi
      13.5. DCGAN, CycleGAN, StyleGAN Modeller
      BÖLÜM 14 Model Kaydetme, Yükleme ve Servis Etme
      14.1. torch.save() ve torch.load() Kullanımı
      14.2. state_dict Mantığı
      14.3. Eğitim Sonrası Modeli Inference (Çıkarım) İçin Hazırlama
      14.4. Torchscript ve ONNX İle Model Taşınabilirliği
      14.5. Model Versiyonlama Ve Üretim Ortamı Için
      En Iyi Uygulamalar
      BÖLÜM 15 Performans İzleme ve Model Takibi
      15.1. torch.utils.tensorboard, matplotlib
      15.2. Eğitim Eğrileri: Loss, Accuracy, Precision-Recall

      15.3. AUC-ROC ve Confusion Matrix Görselleştirmeleri
      15.4. Model Loglama ve Sürüm Takibi
      BÖLÜM 16 Hiperparametre Optimizasyonu
      16.1. Öğrenme Oranı, Dropout Oranı, Batch Size
      16.2. Grid Search, Random Search, Bayesian Optimization
      16.3. Optuna ve Ray Tune Tanıtımı
      16.4. Otomatik Deney Yönetimi
      BÖLÜM 17 PyTorch LIghtnIng ile Temiz Eğitim
      17.1. PyTorch Lightning nedir?
      17.2 LightningModule ve Trainer Sınıfı
      17.3. Kodun Sadeleşmesi, Yeniden Kullanılabilirlik
      17.4. Callback Yapıları İle Erken Durdurma ve Model Kaydı
      17.5 Dağıtık Eğitim Desteği
      BÖLÜM 18 Çoklu GPU ve Dağıtık Eğitim
      18.1. DataParallel vs DistributedDataParallel
      18.2. GPU Bellek Yönetimi
      18.3. Batch Büyüklüğü Optimizasyonu
      18.4 Eğitim Hızlandırma Teknikleri (Mixed Precision, AMP)
      BÖLÜM 19 Gerçek Dünya Projeleri ve Endüstri Uygulamaları
      19.1. Görüntü sınıflandırma
      19.2. Sinyal Sınıflandırma (EKG)
      19.3. NLP (metin analizleri, spam tespiti)
      19.4. Anomali tespiti (finans, IoT, siber güvenlik) 335
      BÖLÜM 20 Bitirme Projesi – Sıfırdan Model Geliştirme Süreci
      20.1. Proje Fikri Oluşturma
      20.2. Veri Keşfi ve Ön İşleme
      20.4. Performans Değerlendirme
      20.5. Sunum ve Model Deployment
      Kaynaklar

      Stok Kodu
      :
      9786253755065
      Boyut
      :
      16x24
      Sayfa Sayısı
      :
      359
      Basım Yeri
      :
      İstanbul
  • Taksit Seçenekleri
    • Axess Kartlar
      Taksit Sayısı
      Taksit tutarı
      Genel Toplam
      Tek Çekim
      500,00   
      500,00   
      2
      250,00   
      500,00   
      3
      166,67   
      500,00   
      Ziraat Bankkart
      Taksit Sayısı
      Taksit tutarı
      Genel Toplam
      Tek Çekim
      500,00   
      500,00   
      2
      250,00   
      500,00   
      3
      166,67   
      500,00   
      Maximum Kartlar
      Taksit Sayısı
      Taksit tutarı
      Genel Toplam
      Tek Çekim
      500,00   
      500,00   
      2
      250,00   
      500,00   
      3
      166,67   
      500,00   
      Diğer Kartlar
      Taksit Sayısı
      Taksit tutarı
      Genel Toplam
      Tek Çekim
      500,00   
      500,00   
      2
      -   
      -   
      3
      -   
      -   
  • Yorumlar
    • Yorum yaz
      Bu kitabı henüz kimse eleştirmemiş.
Kapat