Post ten rozpoczyna serię, w której chciałbym przybliżyć tworzenie sieci neuronowych z wykorzystaniem biblioteki TensorFlow. Na początek przeanalizujemy architekturę sieci konwolucyjnej (ang. Convolutional Network) oraz przyjrzymy się warunkom, w jakich taka sieć będzie w stanie wyuczyć się rozpoznawania wzorca, jako przykład posłuży nam problem rozpoznawania ciągu cyfr z obrazu.
Zachęcam do zapoznania się z drugą częścią artykułu:
Rozpoznawanie ciągu cyfr – definicja problemu i generowanie danych
Zazwyczaj wszelkie tutoriale dokonujące wprowadzenia do głębokich sieci neuronowych bazują na dwóch popularnych zbiorach MNIST lub CIFAR-10, ale jest ich i tak już wiele w sieci, więc nie będę ich powielał, zainteresowanych odsyłam do dokumentacji TensorFlow:
- MNIST Conv Net Tutorial
- CIFAR-10 ConvNet Tutorial (bardziej zaawansowany)
Ja postanowiłem was przeprowadzić przez proces tworzenia i uczenia sieci od początku do końca, a z mojego punktu widzenia ważne jest aby wyrobić sobie umiejętność definiowania tego co ma być na wyjściu sieci oraz określeniu funkcji straty. W przypadku powyższych dwóch zbiorów, sytuacja jest bardzo prosta. W obu zadanie polega na przydzieleniu obrazka do jednej z 10 klas, w przypadku MNIST jest to cyfra od 0-9 a w przypadku CIFAR-10 to zestaw dziesięciu pojęć (airplane, automobile, bird, cat, deer, dog, frog, horse, ship, truck).
My za zadanie postawimy sobie rozpoznanie ciągu wygenerowanych cyfr na obrazie, na początku w tym wpisie 1 cyfry, a w kolejnym zwiększymy ich ilość do 2 i 6. Pozwoli to nam prześledzić złożoność procesu uczenia sieci oraz kolejno będzie wymagało przyłożenia większej wagi do odpowiedniej inicjalizacji parametrów.
Generowanie danych
Ciągi cyfr wygenerujemy na podstawie skryptu, który opisałem w poprzednim poście, przypomnę tylko, że pozwalał on wygenerować zestaw obrazów z ciągiem losowo ułożonych cyfr narysowanych różnym krojem czcionek. W zależności od ilości cyfr w skrypcie należy ustawić różne parametry, ich zestawienie umieściłem w tabeli:
Data set name | Font used | Font size | Image size (h,w) | Images count |
---|---|---|---|---|
Digit_1f1 | OpenSans-Regular.ttf | 26 | (32,28) | 1000 |
Digit_2f1 | OpenSans-Regular.ttf | 26 | (32,56) | 1000 |
Digit_6f3 | OpenSans-Regular.ttf, Mothproof_Script.ttf, Calligraffiti.ttf | 26 | (32,160) | 3×1000 |
Czcionki można ściągnąć z OpenSans-Regular.ttf, Mothproof_Script.ttf, Calligraffiti.ttf. Powyższe zbiory można ściągnąć lub wygenerować. W drugim przypadku z uwagi na losowość wyniki mogą się nieznacznie różnić. Wygenerowane pliki zostały nazwane w formacie '00000_timestamp.png’, więc chcąc odczytać jakie cyfry znajdują się na obrazie wystarczy wziąć n-znaków do podkreślenia z nazwy pliku.
Architektura sieci do rozpoznawania cyfr
Postawione zadanie postaramy się rozwiązać z pomocą sieci neuronowej składającej się z:
- dwóch warstw konwolucyjnych (conv1, conv2)
- dwóch warstw dokonujących max-pool’ing
- wykorzystującej technikę dropout
- jednej warstwy w pełni połączonej (full connect – fc)
- jednej warstwie wyjściowej (output)
Całość zrealizujemy z wykorzystaniem biblioteki TensorFlow.
One-hot encoding – jak określić wyjście sieci
Na początek zajmijmy się naszym najprostszym przypadkiem, a mianowicie rozpoznawaniem tylko 1 cyfry (zbiór Digit_1f1).
Zacznijmy od końca, czyli określenia tego co powinno być na wyjściu sieci. Każdy z obrazów może przynależeć do jednej z 10 kategorii (cyfry 0-9), dokonajmy kodowania każdej klasy do 10-wymiarowego wektora tzw. one hot-enconding. Polega ono na tym, że na pozycji określającej daną klasę stoi jedynka, a na pozostałych pozycjach zera.
- cyfra '0′ zostanie zakodowana jako [1,0,0,0,0,0,0,0,0,0]
- cyfra '1′ zostanie zakodowana jako [0,1,0,0,0,0,0,0,0,0]
- …
- cyfra '9′ zostanie zakodowana jako [0,0,0,0,0,0,0,0,0,1]
Kodowanie to zastosujemy w naszym zbiorze danych kodując w ten sposób etykiety wygenerowanych cyfr. Na taką reprezentację można patrzeć jak na rozkład prawdopodobieństwa tzn. z jakim prawdopodobieństwem cyfra na obrazie jest podobna do tych określonych przez nie zerową wartość na poszczególnych pozycjach. I takie spojrzenie będzie wygodne przy uczeniu naszej sieci, gdyż zazwyczaj na wyjściu sieci otrzymamy wektor, który nie będzie składał się z '0’i '1′, tylko miał wartości pośrednie. Wektor o współrzędnych [0,0,0,0.7,0,0,0.05,0,0.2,0.05] wskazuje, że najbardziej prawdopodobną cyfrą na obrazie jest '3′ (p-stwo 0.7) a następnie cyfra '8′ (p-stwo 0.2).
W ostatniej warstwie wyjściowej otrzymamy 10-wymiarowy wektor liczb, które jeszcze nam nie określą rozkładu prawdopodobieństwa. Liczby te powinny sumować się do 1, aby tak było powinniśmy te wartości znormalizować, zazwyczaj do tego celu używa się funkcji softmax.
Uczenie na podstawie funkcji straty
Uczenie nadzorowane w machine learning zazwyczaj przebiega w następujący sposób. Podajemy przykłady uczące do algorytmu, który na bazie parametrów (macierzy wag) przewiduje do jakiej klasy należą przykłady, następnie obliczamy błąd pomiędzy wartością zwróconą przez algorytm, a rzeczywistą wartością pochodzącą z zbioru danych. Obliczenie błędu wykonywane jest przy określonej przez nas 'loss function’ (funkcję straty). Idea polega na zmianie parametrów modelu, tak aby zminimalizować wartość loss function na zbiorze treningowym.
W naszym przykładzie wykorzystamy jedną z gotowych w TensorFlow funkcji tf.nn.softmax_cross_entropy_with_logits (dobre wytłumaczenie tej funkcji można znaleźć na SO).
Kod sieci rozpoznającej jedną cyfrę
Na listingu poniżej znajduje się kod sieci rozpoznającej jedną cyfrę, cały kod dostępny jest na githubie (projekt „Numbers recoginiton”).
Na początku importujemy niezbędne biblioteki, najważniejsze dla nas to ’tensorflow, numpy i matplotlib’. Biblioteka ’data_helpers’ jest to własny skrypt znajdujący się w bieżącym folderze, którego zadaniem jest ułatwienie wczytywania danych oraz ich kodowania.
Wczytujemy dane do zmiennych X oraz Y, są to tablice z numpy. X – ma wymiary 1000×1024, gdzie w każdym wierszu znajduje się jeden obraz (32x32px=1024). Natomiast zmienna Y ma wymiary 1000×10, w każdym wierszu znajduje się 10-wymiarowy wektor kodujący cyfrę, która znajduje się na obrazie.
Następnie ustalamy podstawowe parametry uczące:
- learning_rate – parametr uczący podczas optymalizacji
- batch_size – określa ile naraz będziemy przetwarzać obrazów (zazwyczaj 32,64,128)
- trainning_iters – ile iteracji treningowych ma wykonać nasz algorytm
- display_step – co ile iteracji ma zostać obliczona wartość funkcji straty oraz treningowe accuracy, przydaje się do testów
- n_input – o jakich wymiarach jest wejście sieci (wymiary obrazu)
- n_classes – ile mamy klas, o jakich wymiarach jest wyjście sieci
import numpy as np import data_helpers as dh import matplotlib.pyplot as plt import os import tensorflow as tf import datetime as dt X,Y,files = dh.load_dataset('shared/Digits_1f1',(32,32),1) # Parameters learning_rate = 0.001 batch_size = 64 training_iters =500 display_step = 50 # Network Parameters n_input = 32*32 n_classes = 10 # dropout = 0.75 # Dropout, probability to keep units
Budowa sieci w TensorFlow
Idea TensorFlow polega na zbudowaniu grafu obliczeniowego, będącego ciągiem kolejnych operacji na danych wejściowych. Następnie graf ten wewnętrzne jest kompilowany przez bibliotekę, aby w ramach sesji uruchomić obliczenia.
Dane do stworzonego grafu przekazywane są poprzez ’placehoder’, można to rozumieć jako alokację pamięci dla danych wejściowych sieci. Dla każdego placeholdera należy podać wymiary oraz typ, w naszym skrypcie zadeklarowaliśmy trzy tego typu zmienne ’x,y, keep_prob’. Jak łatwo się domyśleć zmienne te posłużą nam do przechowywania obrazów (x) oraz etykiet (y). Zmienna keep_prob – przechowuje wartość prawdopodobieństwa dla operacji dropout [bibcite key=Srivastava2014].
W celu uproszczenie procesu tworzenia sieci warstwa po warstwie, zdefiniowane zostały trzy funkcje:
- conv2d – tworzy jedną warstwę konwolucyjną sieci, dokonuje konwolucji wykorzystując funkcję tf.nn.conv2d pomiędzy obrazem img a wagami w, parametr strides określa o ile okno konwolucji będzie się przesuwało, u nas o 1 w każdym wymiarze. Następnie dodajemy bias i stosujemy nielinowość w postaci funkcji relu
- max_pool – dokonuje operacji pooling’u
- funkcja conv_net wykorzystuje poprzednie funkcje w celu zbudowania pełnej sieci, warstwa po warstwie wraz z operacjami max_pool oraz dropout
Funkcje tworzące architekturę sieci
W funkcji conv_net na początku dokonujemy zmiany rozmiaru danych i tworzymy tensor o wymiarach [-1,32,32,1], pierwszy (-1) oznacza nasz batch_size (ilość obrazów), podanie -1 informuje o tym, że wymiar ten zostanie dopasowany do przekazanych danych. Następnie 32,32 oznaczają wysokość i szerokość obrazu, a ostatni 1 ilość kanałów w obrazie. My przetwarzamy obrazy w odcieniu szarości więc mamy tylko 1, w przypadku RGB ustawilibyśmy na 3.
Tworzymy kolejno dwie warstwy konwolucyjne (conv1,conv2) aby na końcu warstwę conv2 połączyć z pełną warstwą o 1024 neuronach. Wymaga to przeorganizowania wymiarów Tensora conv2 stąd ponowne użycie operacji reshape. Ostatecznie dokonujemy przemnożenia macierzy, czyli obliczenia aktywacji warstwy dense1, stosujemy relu i dropout. Warstwa dense1 połączona jest z warstwą wyjściową out.
# tf Graph input x = tf.placeholder(tf.float32, [None, n_input]) y = tf.placeholder(tf.float32, [None, n_classes]) keep_prob = tf.placeholder(tf.float32) #dropout (keep probability) # Create model def conv2d(img, w, b): return tf.nn.relu(tf.nn.bias_add(tf.nn.conv2d(img, w, strides=[1, 1, 1, 1], padding='SAME'),b)) def max_pool(img, k): return tf.nn.max_pool(img, ksize=[1, k, k, 1], strides=[1, k, k, 1], padding='SAME') def conv_net(_X, _weights, _biases, _dropout): # Reshape input picture, treat img as matrix, so nr_rows=height nr_columns=width _X = tf.reshape(_X, shape=[-1, 32, 32, 1]) # Convolution Layer 3x3x32 first, layer with relu conv1 = conv2d(_X, _weights['wc1'], _biases['bc1']) # Max Pooling (down-sampling), change input size by factor of 2 conv1 = max_pool(conv1, k=2) # Apply Dropout #conv1 = tf.nn.dropout(conv1, _dropout) # Convolution Layer, 3x3x64 conv2 = conv2d(conv1, _weights['wc2'], _biases['bc2']) # Max Pooling (down-sampling) conv2 = max_pool(conv2, k=2) # Apply Dropout #conv2 = tf.nn.dropout(conv2, _dropout) # Fully connected layer dense1 = tf.reshape(conv2, [-1, _weights['wd1'].get_shape().as_list()[0]]) # Reshape conv2 output to fit dense layer input dense1 = tf.nn.relu(tf.add(tf.matmul(dense1, _weights['wd1']), _biases['bd1'])) # Relu activation dense1 = tf.nn.dropout(dense1, _dropout) # Apply Dropout # Output, class prediction out = tf.add(tf.matmul(dense1, _weights['out']), _biases['out']) #out = tf.nn.softmax(out) return out
Zmienne – jako parametry modelu w TensorFlow
Pod funkcją zdefiniowane są wartości wag i bias, należy tu być bardzo uważnym i zwracać uwagę na wymiary poszczególnych warstw. Każdą zmienną modelu, która będzie uaktualniana podczas procesu optymalizacji należy zdefiniować jako tf.Variable. W naszym przypadku definiujemy słownik takich zmiennych, aby łatwiej się nam nimi operowało. Pierwsza warstwa konwolucyjna ’wc1′ ma wymiary 3x3x32, czyli ma 32 filtry, każdy o wymiarach 3×3, wartość 1 oznacza, że wejście do tej sieci ma głębokość 1(nasz obraz jest w odcieniach szarości, ma jeden kanał) . Druga warstwa konwolucyjna otrzymuje jako wejście macierz o głębokości równej poprzedniej warstwie czyli 32 (trzeci wymiar), rozmiar kernela jest także 3×3 a wyjście tej warstwy składa się z 64 filtrów. Mogą zastanowić wymiary wag w warstwie wd1, otóż po każdej warstwie stosujemy max_pooling, który za każdym razem zmniejszył wymiary obrazu o 2, czyli z 32×32 ostatecznie mamy 8×8 i to należy przemnożyć przez głębokość poprzedniej warstwy czyli 64.
# Store layers weight & bias weights = { 'wc1': tf.Variable(tf.random_normal([3, 3, 1, 32])), # 3x3 conv, 1 input, 32 outputs 'wc2': tf.Variable(tf.random_normal([3, 3, 32, 64])), # 3x3 conv, 32 inputs, 64 outputs 'wd1': tf.Variable(tf.random_normal([8*8*64, 1024])), # fully connected, 'out': tf.Variable(tf.random_normal([1024, n_classes])) # 1024 inputs, 2*10 output } biases = { 'bc1': tf.Variable(tf.random_normal([32])), 'bc2': tf.Variable(tf.random_normal([64])), 'bd1': tf.Variable(tf.random_normal([1024])), 'out': tf.Variable(tf.random_normal([n_classes])) }
Pozostaje nam już tylko zdefiniowane wywołanie funkcji conv_net aby zbudować nasz computation graph i zapamiętać go w zmiennej pred. Następnie definiujemy funkcję straty i tworzymy obiekt optymalizatora. Do optymalizacji wybraliśmy AdamOptimizer (obecnie zalecany). Mając zdefiniowany graf oraz funkcję straty nasz optymalizator potrafi automatycznie przejść po węzłach w grafie sam dokonać wstecznej propagacji błędu. To jest właśnie wielka zaleta TensorFlow, że wystarczy dobrze zbudować graf, a część związaną z uczeniem mamy już za darmo z biblioteki.
# Construct model pred = conv_net(x, weights, biases, keep_prob) # mnist version loss = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(pred, y)) optimizer = tf.train.AdamOptimizer(learning_rate=learning_rate).minimize(loss) # ks version #cross_entropy = tf.nn.sigmoid_cross_entropy_with_logits(pred,y) #loss = tf.reduce_mean(cross_entropy) #optimizer = tf.train.AdamOptimizer(learning_rate=learning_rate).minimize(loss) # minst version Evaluate model correct_pred = tf.equal(tf.argmax(pred,1), tf.argmax(y,1)) accuracy = tf.reduce_mean(tf.cast(correct_pred, tf.float32)) ###### # Initializing the variables init = tf.initialize_all_variables()
Uruchamianie obliczeń w sesji
Ostatnim krokiem jest uruchomienie obliczeń. TensorFlow w tym celu posługuje się pojęciem sesji, gdyż ten sam kod możemy uruchomić na CPU jak i GPU. Tutaj w pętli while wykonujemy kolejne kroki optymalizacji, wczytujemy daną porcję danych do zmiennych batch_xs, batch_ys, tą porcją danych „karmimy” nasz optymalizator. Dokonuje on zmian wag sieci na bazie przekazanych danych, zauważcie że każdą operację uruchamiamy poprzez sess.run().
Warunek if służy do sprawdzenia czy nasz model się uczy, w trakcie działania pętli co display_step iteracji obliczamy wartość loss function oraz liczymy dokładność klasyfikacji na danych treningowych, aby wyświetlić te dane w konsoli. Przy okazji dodajemy do list losses i accuracies wyliczone wartości, aby na końcu móc je zwizualizować.
losses = list() accuracies = list() saver = tf.train.Saver() model_file = "./private/models/model_sigmoid_one_digit.ckpt" # Launch the graph with tf.Session() as sess: sess.run(init) step = 0 epoch=0 start_epoch=dt.datetime.now() # Keep training until reach max iterations while step <= training_iters: batch_xs, batch_ys, idx = dh.random_batch(X, Y, batch_size) # Fit training using batch data start_op = dt.datetime.now() sess.run(optimizer, feed_dict={x: batch_xs, y: batch_ys, keep_prob: dropout}) end_op = dt.datetime.now() print("#{} opt step {} {} takes {}".format(step,start_op,end_op, end_op-start_op)) if step % display_step == 0: print("acc start {}".format(dt.datetime.now())) # Calculate batch accuracy acc = sess.run(accuracy, feed_dict={x: batch_xs, y: batch_ys, keep_prob: 1.}) accuracies.append(acc) print("loss start {}".format(dt.datetime.now())) # Calculate batch loss batch_loss = sess.run(loss, feed_dict={x: batch_xs, y: batch_ys, keep_prob: 1.}) losses.append(batch_loss) print("Iter " + str(step) + " started={}".format(dt.datetime.now()) + ", Minibatch Loss= " + "{}".format(batch_loss) + ", Training Accuracy= " + "{}".format(acc)) epoch+=1 step += 1 end_epoch = dt.datetime.now() print("Optimization Finished, end={} duration={}".format(end_epoch,end_epoch-start_epoch)) test_size = min(400, X.shape[0]) test_X = X[0:test_size,:] test_Y = Y[0:test_size,:] # Calculate accuracy print("Testing Accuracy:", sess.run(accuracy, feed_dict={x: test_X, y: test_Y, keep_prob: 1.}))
Wygenerowanie wykresów
Na sam koniec z użyciem matplotlib wyświetlamy dwa wykresy, przedstawiające jak w trakcie uczenia zmieniały się loss function oraz accuracy
import matplotlib.pyplot as plt iter_steps = [ display_step*k for k in range((training_iters/display_step)+1)] trainning_version = './private/plots/digits1f1_acc_init_{}.png'.format(alpha) imh =plt.figure(1,figsize=(15,8),dpi=160) #imh.tight_layout() #imh.subplots_adjust(top=0.88) imh.suptitle(trainning_version) plt.subplot(211) plt.grid(b=True, which='major', axis='y') plt.plot(iter_steps,losses, '-g', label='Loss',linewidth=2.0) #plt.semilogy(iter_steps,losses, '-g', label='Loss',linewidth=2.0) plt.title('Loss function') plt.subplot(212) plt.ylim([0,1.1]) plt.grid(b=True, which='major', axis='y') plt.plot(iter_steps,accuracies, '-r', label='Acc', linewidth=2.0) plt.title('Accuracy') plt.tight_layout() plt.subplots_adjust(top=0.88) plt.savefig(trainning_version)
W wyniku działania skryptu powinniśmy otrzymać wykres podobny do tego:
Z wykresu można wyczytać, że proces uczenia sieci przebiegał szybko i nasz problem rozpoznania cyfry jest prostym problem. Już po 100 iteracjach dokładność klasyfikacji wynosi 100%.
Podsumowanie
Wpis ten przedstawia budowę niedużej sieci konwolucyjnej służącej do rozpoznawania cyfr na obrazie. Jego głównym zadaniem jest wprowadzenia do biblioteki TensorFlow na działającym kompletnym przykładzie. W kolejnym cyklu przedstawię modyfikację skryptu, dzięki której będziemy mogli rozpoznawać nie jedną a kilka cyfr. Będzie wiązało się to zmianą architektury sieci, zmianą funkcji straty oraz zmianą sposobu kodowania wektora wyjściowego.
Jeżeli uważasz ten wpis za wartościowy to Zasubskrybuj bloga. Dostaniesz informacje o nowych artykułach.
Post main image by: Maurice Peemen
Witam,
Bardzo ciekawy artykuł, pomaga zrozumieć i poznać tensorflow. Dużo z niego korzystam 🙂
Pojawiło się jedno issue, które nie pozwalało mi odtworzyć sesji. Sprawdzenie:
if os.path.isfile(model_file):
saver.restore(sess, model_file)
nie działa, ponieważ nie ma takiego pliku 🙂 Oczywiście u siebie poprawiłem, ale ktoś może też mieć podobne problemy, tak więc ostrzegam.
Powodzenia w dalszej pracy!
Dzięki za dobre słowo oraz wskazówkę. Mam nadzieję że innym się przyda.
Dzień dobry,
bardzo przydatny artykuł, dziękuję, rozjasniło mi to trochę jak to działa, ale wciąż nasuwają się pytania. Rozumiem, że nie każda linia będzie komentowana itd. ale przy tworzeniu sieci mamy
# Output, class prediction
out = tf.add(tf.matmul(dense1, _weights[’out’]), _biases[’out’])
#out = tf.nn.softmax(out)
Zakomentowana linia z uzyciem funkcji softmax nigdzie nie jest wspomniana ani użyta. Czy nie powinno to być odkomentowane w związku z „(…)aby tak było powinniśmy te wartości znormalizować, zazwyczaj do tego celu używa się funkcji softmax.”?
Niestety są to pozostałości po moich różnych testach, softmax o którym piszesz powinien pozostać zakomentowany gdyż kilka lini dalej mamy:
loss = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(pred, y))
optimizer = tf.train.AdamOptimizer(learning_rate=learning_rate).minimize(loss)
a tam wykorzystanie funkcji tf.nn.softmax_cross_entropy_with_logits, która już wewnętrznie oblicza softmax.
Witaj, zacząłem czytać Twojego bloga kilka dni temu i bardzo mi się podoba, że ktoś w końcu poruszył temat tensorflow i uczenia maszynowego 🙂 Nie jestem informatykiem, ale postanowiłem zająć się tym, tematem w celu stworzenia projektu na studia, który wykorzystywałby sztuczne sieci neuronowe. Jednak, ciężko jest mi znaleźć zrozumiałe źródło tłumaczące zagadnienie wizualizacji. Jak zamienić model klasyfikujący, na taki, który coś generuje? Pomyślałem, że fajnie byłoby zrobić model, bazujący na rozwiązaniach z modelu inception-v3 od google. Chciałem wykorzystać bazę kompozycji graficznych(statyczna, dynamiczna, symetryczna, wertykalna, horyzontalna itp.), aby wyuczyć model, zdolności rozpoznawania kompozycji. Co do modelu inception-v3, są tutoriale do fine-tunningu sieci, na rozpoznawanie. Jednak aby osiągnąć wizualizację, np. deepdreamy – tutorial ze strony tensorflow, wykorzystuje inną wersję modelu inception, której nie można nauczyć tym samym skryptem, co model inception-v3(chyba nie zgadza się nazwa i ilość warstw). Chciałbym móc wybrać sobie, żeby model wygenerował czarno-białą kompozycję dynamiczną np. na obrazie 640x800px.
Widziałem, że da się przykładowo wygenerować liczby z MNIST, albo rzeczy odpowiadające odpowiednim klasom nauczonego modelu inception – deepdreamy. Ciekawi mnie również zagadnienie neural-style-transfer, czyli przerzucania cech jednego obrazu, na drugi, dzięki wyuczonej sieci neuronowej. Fajnie by było, kiedyś poczytać coś o tym jak to działa, w przystępny sposób 🙂 Pozdrawiam!
Dzięki za komentarz. Co do generowania obrazów to sam się powoli do tego przymierzam, lecz na razie jeszcze mi daleko do czegoś konkretnego. Temat jest bardzo ciekawy.
Obecnie jedną z najczęściej wykorzystywanych technik jest „Generative adversarial networks (GAN)” i możesz na to spojrzeć, jak się poszuka na githubie to da radę znaleźć przykładowy kod, który może uda się tobie dostosować to twoich potrzeb (choć z doświadczenie wiem że nie jest to często takie proste).
Na youtubie znajdziesz także kilka prezentacji prowadzonych przez Iana Goodfellow, jednego z twórców GAN.
Życzę powodzenia.
Bardzo ciekawy tutorial. Dziekuje.
W skrypcie generate_digits.py usunalem komentarz w linii 119, zeby zapisywac obrazy generowanej liczby (cyfry) oraz odkomentowalem linie 74 random_digits=1. W ten sposob otrzymalem 10 obrazkow z wygenrowanymi pojedynczymi cyframi zapisanymi w katalogu \shared\Digits_2f1. Moze ten krok robie niepotrzebnie?
Pozniej uruchomilem skrypt conv_net_one.py zeby wytrenowac siec.
Najpierw otrzymuje ostrzezenie:
WARNING:tensorflow:From conv_net_one_digit.py:105 in .: initialize_all_v
ariables (from tensorflow.python.ops.variables) is deprecated and will be remove
d after 2017-03-02.
a pozniej blad:
Traceback (most recent call last):
File „conv_net_one_digit.py”, line 130, in
batch_xs, batch_ys, idx = dh.random_batch(X, Y, batch_size)
File „C:\Users\BRM738\Documents\numbers_recognition\data_helpers.py”, line 113
, in random_batch
raise ValueError(’Batch cant be larger then X has rows’)
ValueError: Batch cant be larger then X has rows
Prosze o pomoc, jak ustawic parametry, zeby nie bylo bledu
pozdrawiam
Rafal
Cześć, dzięki za dobre słowo.
Co do pierwszego ostrzeżenia to z tego co pamiętam to projekt robiłem w tensorflow 0.12 teraz jest wersja 1.0 i funkcja intialize_all_variables została zmieniona na global_variables_initializer
Natomiast co do błędu to wynika on z tego że masz za mało wygenerowanych obrazów w zbiorze treningowym (10 obrazów) w stosunku do 'batch’, który wynosi 64. Mój błąd, zmień linie 93 w generate_digits na liczbę większą niż 64, proponuję na początek na 128, później można spróbować na większej ilości (kilka tysięcy) (https://github.com/ksopyla/numbers_recognition/blob/master/generate_digits.py#L93)
Dziekuje.
Moj blad wystapil rowniez gdy uzywalem TF012. Dzisiaj upgradowalem do TF1.0. Poniewaz pracuje na Win7/64 wiec musialem najpierw downgradowac Python’a z 3.6 do 3.5.2.
Zmienilem inicjalizacje zgodnie z Twoja uwaga. Teraz mam:
# Initializing the variables
init = tf.global_variables_initializer()
Parametry, ktore mam w connv_net_one_digit:
# Parameters
learning_rate = 0.001
batch_size = 64
training_iters =500
display_step = 50
Ustawilem w generate_digit wartosci wieksze od 64. Zaczalem od 128 teraz mam 640.
folder=’shared/Digits_2f1′
#how many images with one type of font, final dataset has size number_of_images*number_of_fonts
number_of_images=640
dispaly_count=1
Niestety ciagle ten blad:
ValueError: Batch cant be larger then X has rows
File „conv_net_one_digit.py”, line 130, in
batch_xs, batch_ys, idx = dh.random_batch(X, Y, batch_size)
File „C:\Users\Public\Documents\Python Scripts\numbers_recognition\data_helper
s.py”, line 113, in random_batch
raise ValueError(’Batch cant ValueError: Batch cant be larger then X has rows
be larger then X has rows’)
Cześć !
Bardzo fajny wpis 🙂
Czy można jakoś zwizualizować taką sieć np. w Tensorboard?