Tác giả: N.T.A.93

Conditional GAN tutorial

Conditional GAN tutorial

Trong bài viết này chúng ta sẽ tiếp tục với seri về GAN ( các bạn chưa biết GAN là gì có thể đọc bài viết trước ở đây ). Bài viết gồm có 2 phần: 1.Nhắc lại ý tưởng về GAN 2. Ý tưởng cơ bản về Conditional GAN ( cGAN ) 3. Training cGAN bằng tensorflow Full code các bạn có thể tìm ở đây: https://gist.github.com/astrung/76cdb95589b181bd007d86a2b7a24c8a 1. Nhắc lại về GAN Đầu tiên, GAN là 1 mô hình neural network gồm 2 mạng neural network nhỏ ,mô phỏng quá trình cạnh tranh để nhằm mục đích ... »

GAN tutorial

GAN tutorial

0. Giới thiệu Neural network vẫn đang phát triển rất mạnh trong những năm gần đây. Trong năm 2017, 1 loại neural network có tên là GAN ( Generative adversarial network ) đã phát triển rất mạnh mẽ. Nhằm mục đích giúp các bạn tiếp cận nhanh chóng với mô hình này. Mình sẽ giới thiệu qua nguyên lý và cách thức train 1 mô hình GAN cơ bản cho các bạn. Bài viết gồm có 3 phần: 1. Ý tưởng cở bản về GAN 2. Cách thức train 1 GAN về mặt lý thuyết với mã giá 3. Train GAN với ... »

Hướng dẫn sử dụng free GPU với Google colaboratory

Hướng dẫn sử dụng free GPU với Google colaboratory

Đối với tất cả mọi người làm machine learning, thì tất nhiên là ai cũng ao ước có 1 GPU xịn rồi (cỡ Tesla K60 chẳng hạn). Nhưng đời không như mơ, mấy ai dám mua 1 GPU xịn, chưa kể tiền máy đi kèm, tiền điện hàng tháng ,... . Nắm bắt tâm lý đó, Google vừa cung cấp 1 dịch vụ cho phép chúng ta sử dụng free GPU , thậm chí là Tesla K80 luôn (1 loại GPU cực kì mạnh cho machine learning) trong vòng 12h. Hãy nhớ là 12 tiếng 1 lần chạy thôi nhé, ko có free ... »

Giới thiệu về synthetic gradient

Giới thiệu về synthetic gradient

Trong các giải thuật neural network, chúng ta thường xuyên sử dụng Backpropagation (lan truyền ngược) để update các tham số của từng lớp hidden layer. Tuy nhiên , việc sử dụng Backpropagation trong các mô hình neural network có kích thước rất lớn sẽ có thể gây ra hiện tượng bottleneck.Giả sử trong 1 mạng neural có 100 lớp hidden layer,để chỉnh sửa các trọng số trong layer 1, layer 1 sẽ buộc phải đợi thực hiện full forward qua 100 lớp layer, tính loss function, và sau đó thực hiện Backpropagation qua 99 lớp ở sau đó ... »