Βαθιά μάθηση με Python: Οδηγός για αρχάριους στη βαθιά μάθηση

Αυτό το άρθρο θα σας προσφέρει μια περιεκτική και λεπτομερή γνώση της Deep Learning με την Python και πόσο χρήσιμη είναι στην καθημερινή ζωή.

είναι ένα από τα πιο καυτά θέματα του 2018-19 και για έναν καλό λόγο. Υπήρξαν τόσες πολλές εξελίξεις στον κλάδο όπου ήρθε η ώρα που οι μηχανές ή τα προγράμματα υπολογιστών αντικαθιστούν πραγματικά τους ανθρώπους. Αυτό Βαθιά μάθηση με Python Το άρθρο θα σας βοηθήσει να καταλάβετε τι είναι η Βαθιά Μάθηση και πώς έγινε δυνατή αυτή η μετάβαση. Θα καλύψω τα ακόλουθα θέματα σε αυτό το άρθρο:



Επιστήμη δεδομένων και συστατικά

Λοιπόν, η Επιστήμη των Δεδομένων είναι κάτι που υπάρχει εδώ και αιώνες. Επιστημονικά δεδομένα είναι η εξαγωγή γνώσεων από δεδομένα χρησιμοποιώντας διαφορετικές τεχνικές και αλγόριθμους.



Χρονολόγιο AI - Βαθιά μάθηση με Python - Edureka

είναι μια τεχνική που επιτρέπει στις μηχανές να μιμούνται την ανθρώπινη συμπεριφορά. Η ιδέα πίσω από την τεχνητή νοημοσύνη είναι αρκετά απλή αλλά συναρπαστική, δηλαδή η λήψη έξυπνων μηχανών που μπορούν να πάρουν αποφάσεις μόνες τους. Για χρόνια, πιστεύεται ότι οι υπολογιστές δεν θα ταιριάζουν ποτέ με τη δύναμη του ανθρώπινου εγκεφάλου.



Λοιπόν, τότε δεν είχαμε αρκετά δεδομένα και ισχύ υπολογισμού, αλλά τώρα με Μεγάλα δεδομένα με την εμφάνιση των GPU, η Τεχνητή Νοημοσύνη είναι δυνατή.

είναι ένα υποσύνολο της τεχνικής AI που χρησιμοποιεί στατιστικές μεθόδους που επιτρέπουν στις μηχανές να βελτιώνονται με την εμπειρία.



Βαθιά μάθηση είναι ένα υποσύνολο ML που καθιστά εφικτό τον υπολογισμό του νευρικού δικτύου πολλαπλών επιπέδων. Χρησιμοποιεί νευρωνικά δίκτυα για να προσομοιώσει τη λήψη αποφάσεων που μοιάζει με τον άνθρωπο.

Η ανάγκη για βαθιά μάθηση

Ένα βήμα προς την τεχνητή νοημοσύνη είναι η μηχανική εκμάθηση. Η μηχανική εκμάθηση είναι ένα υποσύνολο της τεχνητής νοημοσύνης και βασίζεται στην ιδέα ότι οι μηχανές θα πρέπει να έχουν πρόσβαση σε δεδομένα και θα πρέπει να αφεθούν να μάθουν και να εξερευνήσουν μόνοι τους. Ασχολείται με την εξαγωγή προτύπων από μεγάλα σύνολα δεδομένων. Ο χειρισμός μεγάλων συνόλων δεδομένων δεν ήταν πρόβλημα.

  • Αλγόριθμοι μηχανικής εκμάθησης δεν μπορεί να χειριστεί δεδομένα υψηλής διαστάσεων - όπου έχουμε μεγάλο αριθμό εισόδων και εξόδων: στρογγυλές χιλιάδες διαστάσεις. Ο χειρισμός και η επεξεργασία αυτού του τύπου δεδομένων γίνεται πολύπλοκος και εξαντλητικός. Αυτό ονομάζεται ως Κατάρα της Διαστατικότητας.

  • Μια άλλη πρόκληση που αντιμετώπισε ήταν, να προσδιοριστεί το χαρακτηριστικά που πρέπει να εξαχθούν . Αυτό παίζει σημαντικό ρόλο στην πρόβλεψη του αποτελέσματος και στην επίτευξη καλύτερης ακρίβειας. Επομένως, χωρίς εξαγωγή χαρακτηριστικών, η πρόκληση για τον προγραμματιστή αυξάνεται καθώς η αποτελεσματικότητα του αλγορίθμου εξαρτάται σε μεγάλο βαθμό από το πόσο διορατικός είναι ο προγραμματιστής.

Τώρα, εδώ είναι που η Deep Learning ήρθε στη διάσωση. Η βαθιά μάθηση είναι ικανός χειρισμού των δεδομένων υψηλής διάστασης και είναι επίσης αποτελεσματικό στο εστιάζοντας στα σωστά χαρακτηριστικά μόνο του.

Τι είναι η βαθιά μάθηση;

Η βαθιά μάθηση είναι ένα υποσύνολο της μηχανικής μάθησης όπου χρησιμοποιούνται παρόμοιοι αλγόριθμοι μηχανικής μάθησης έτσι ώστε να επιτυγχάνεται καλύτερη ακρίβεια στις περιπτώσεις όπου η πρώτη δεν είχε απόδοση μέχρι το σήμα. Βασικα, Η βαθιά μάθηση μιμείται τον τρόπο λειτουργίας του εγκεφάλου μας δηλαδή μαθαίνει από την εμπειρία.

πώς να κάνετε διπλή μετάδοση στο int

Οπως ξέρεις,ο εγκέφαλός μας αποτελείται από δισεκατομμύρια νευρώνες που μας επιτρέπει να κάνουμε καταπληκτικά πράγματα. Ακόμη και ο εγκέφαλος ενός μικρού παιδιού είναι ικανός να επιλύει πολύπλοκα προβλήματα τα οποία είναι πολύ δύσκολο να επιλυθούν ακόμη και με τη χρήση Super-Computers. Λοιπόν, Πώς μπορούμε να επιτύχουμε την ίδια λειτουργικότητα σε ένα πρόγραμμα; Τώρα, εδώ καταλαβαίνουμε Τεχνητός νευρώνας (Perceptron) και Τεχνητό νευρωνικό δίκτυο.

Perceptron και τεχνητά νευρωνικά δίκτυα

Η βαθιά μάθηση μελετά τη βασική μονάδα ενός εγκεφάλου που ονομάζεται εγκεφαλικό κύτταρο ή έναν νευρώνα. Τώρα, ας κατανοήσουμε τη λειτουργικότητα των βιολογικών νευρώνων και πώς μιμούμαστε αυτήν τη λειτουργικότητα στην αντίληψη ή σε έναν τεχνητό νευρώνα.

  • Δενδρίτης: Λαμβάνει σήματα από άλλους νευρώνες
  • Κυτταρικό σώμα: Αθροίζει όλες τις εισόδους
  • Άξον: Χρησιμοποιείται για τη μετάδοση σημάτων στα άλλα κελιά

Ένας τεχνητός νευρώνας ή ένα Perceptron είναι ένα γραμμικό μοντέλο που χρησιμοποιείται για δυαδική ταξινόμηση. Μοντελοποιεί έναν νευρώνα που έχει ένα σύνολο εισόδων, κάθε μία από τις οποίες έχει συγκεκριμένο βάρος. Ο νευρώνας υπολογίζει κάποια λειτουργία σε αυτά σταθμισμένο εισάγει και δίνει την έξοδο.

Λαμβάνει n εισόδους (που αντιστοιχούν σε κάθε χαρακτηριστικό). Στη συνέχεια αθροίζει αυτές τις εισόδους, εφαρμόζει έναν μετασχηματισμό και παράγει μια έξοδο. Έχει δύο λειτουργίες:

  • Αθροιση
  • Μετασχηματισμός (Ενεργοποίηση)

Το βάρος δείχνει την αποτελεσματικότητα μιας συγκεκριμένης εισόδου. Όσο περισσότερο το βάρος της εισόδου, τόσο περισσότερο θα έχει αντίκτυπο στο νευρικό δίκτυο . Αφ 'ετέρου, Προκατάληψη είναι ένα πρόσθετη παράμετρος στο Perceptron που χρησιμοποιείται για να ρυθμίσει την έξοδο μαζί με το σταθμισμένο άθροισμα των εισόδων στο νευρώνα που βοηθά το μοντέλο με τρόπο που να ταιριάζει καλύτερα στα δεδομένα δεδομένα.

Λειτουργίες ενεργοποίησης μεταφράζει τις εισόδους σε εξόδους. Χρησιμοποιεί ένα κατώφλι για να παράγει μια έξοδο. Υπάρχουν πολλές συναρτήσεις που χρησιμοποιούνται ως Λειτουργίες ενεργοποίησης, όπως:

  • Γραμμική ή ταυτότητα
  • Ενότητα ή δυαδικό βήμα
  • Sigmoid ή Logistic
  • Ταν
  • ReLU
  • Softmax

Καλά. αν νομίζετε ότι το Perceptron λύνει το πρόβλημα, τότε κάνετε λάθος. Υπήρχαν δύο μεγάλα προβλήματα:

  • Perceptrons μονής στρώσης δεν μπορεί να ταξινομήσει μη γραμμικά διαχωρίσιμα σημεία δεδομένων .
  • Πολύπλοκα προβλήματα, που συνεπάγονται πολλές παραμέτρους δεν μπορεί να λυθεί από το Single-Layer Perceptrons.

Εξετάστε το παράδειγμα εδώ και την πολυπλοκότητα με τις παραμέτρους που απαιτούνται για τη λήψη απόφασης από την ομάδα μάρκετινγκ.

Ένας νευρώνας, δεν μπορεί να λάβει τόσες εισόδους και γι 'αυτό θα μπορούσαν να χρησιμοποιηθούν περισσότεροι από ένας νευρώνες για την επίλυση αυτού του προβλήματος. Το Νευρωνικό Δίκτυο είναι πραγματικά απλώς ένα σύνθεση Perceptrons, συνδεδεμένη με διαφορετικούς τρόπους και λειτουργεί σε διαφορετικές λειτουργίες ενεργοποίησης.

  • Κόμβοι εισόδου παρέχουν πληροφορίες από τον εξωτερικό κόσμο στο δίκτυο και αναφέρονται μαζί ως 'Input Layer'.
  • Κρυφοί κόμβοι εκτελέστε υπολογισμούς και μεταφέρετε πληροφορίες από τους κόμβους εισόδου στους κόμβους εξόδου. Μια συλλογή κρυφών κόμβων σχηματίζει ένα 'Κρυφό στρώμα'.
  • Κόμβοι εξόδου αναφέρονται συλλογικά ως 'Output Layer' και είναι υπεύθυνοι για υπολογισμούς και μεταφορά πληροφοριών από το δίκτυο στον έξω κόσμο.

Τώρα που έχετε μια ιδέα για το πώς συμπεριφέρεται ένα perceptron, τις διαφορετικές παραμέτρους και τα διαφορετικά επίπεδα ενός Neural Network, ας συνεχίσουμε αυτήν τη Βαθιά Εκμάθηση με το Python Blog και να δούμε μερικές εκπληκτικές εφαρμογές της Deep Learning

Εφαρμογές βαθιάς μάθησης

Υπάρχουν διάφορες εφαρμογές της βαθιάς μάθησης στη βιομηχανία, εδώ είναι μερικές από τις σημαντικές που υπάρχουν στις καθημερινές μας εργασίες.

  • Αναγνώρισης ομιλίας

  • Μηχανική μετάφραση

  • Αναγνώριση προσώπου και αυτόματες ετικέτες

  • Εικονικοί προσωπικοί βοηθοί

  • Αυτοκίνητο

  • Chatbots

Γιατί η Python για βαθιά μάθηση;

  • είναι ένα τέτοιο εργαλείο που έχει ένα μοναδικό χαρακτηριστικό, ότι είναι α γλώσσα προγραμματισμού γενικού σκοπού όπως είναι εύχρηστος όταν πρόκειται για αναλυτικό και ποσοτικό υπολογισμό.
  • Είναι πολύ ευνόητος
  • Η Python είναι Δυναμικά δακτυλογραφημένα
  • Τεράστιος
  • Ένα ευρύ φάσμα βιβλιοθηκών για διαφορετικούς σκοπούς όπως Numpy, Seaborn, Matplotlib, Pandas και Scikit-Learn

Τώρα αρκετά θεωρητικό, Ας δούμε πώς μπορούμε να ξεκινήσουμε τη Βαθιά Εκμάθηση με τον Python με ένα μικρό αλλά συναρπαστικό παράδειγμα.

Βαθιά μάθηση με Python: Παράδειγμα Perceptron

Τώρα είμαι σίγουρος ότι πρέπει να είστε εξοικειωμένοι με τη λειτουργία του “ Ή' πύλη. Η έξοδος είναι ένας εάν κάποια από τις εισόδους είναι επίσης ένας.

Επομένως, ένα Perceptron μπορεί να χρησιμοποιηθεί ως διαχωριστικό ή ως γραμμή απόφασης που χωρίζει το σύνολο εισόδου του OR Gate, σε δύο κατηγορίες:

Κατηγορία 1: Είσοδοι με έξοδο ως 0 που βρίσκονται κάτω από τη γραμμή αποφάσεων.
Κατηγορία 2: Είσοδοι που έχουν έξοδο ως 1 που βρίσκεται πάνω από τη γραμμή αποφάσεων ή το διαχωριστικό.

Μέχρι τώρα, καταλάβαμε ότι ένα γραμμικό perceptron μπορεί να χρησιμοποιηθεί για την ταξινόμηση των δεδομένων εισόδου σε δύο κατηγορίες. Αλλά, πώς ταξινομεί πραγματικά τα δεδομένα;

Μαθηματικά, ένα perceptron μπορεί να θεωρηθεί σαν εξίσωση βαρών, εισόδων και προκατάληψης.

Βήμα 1: Εισαγάγετε όλη την απαιτούμενη βιβλιοθήκη

Εδώ πρόκειται να εισαγάγω μόνο μία βιβλιοθήκη, δηλαδή. TensorFlow

εισαγωγή tensorflow ως tf

Βήμα 2: Ορίστε διανυσματικές μεταβλητές για είσοδο και έξοδο

Στη συνέχεια, πρέπει να δημιουργήσουμε μεταβλητές για την αποθήκευση της εισόδου, της εξόδου και της προκατάληψης για το Perceptron.

train_in = [[0,0,1], [0,1,1], [1,0,1], [1,1,1]] train_out = [[0], [1], [1], [1]]

Βήμα 3: Ορίστε μεταβλητή βάρους

Εδώ θα ορίσουμε τη μεταβλητή τάσης του σχήματος 3 × 1 για τα βάρη μας και θα εκχωρήσουμε αρχικά κάποιες τυχαίες τιμές.

w = tf. Μεταβλητή (tf.random_normal ([3, 1], seed = 15))

Βήμα 4: Ορίστε τα σύμβολα κράτησης θέσης για είσοδο και έξοδο

Πρέπει να καθορίσουμε τα σύμβολα κράτησης θέσης, ώστε να μπορούν να δέχονται εξωτερικές εισόδους κατά την εκτέλεση.

x = tf.placeholder (tf.float32, [None, 3]) y = tf.placeholder (tf.float32, [Καμία, 1])

Βήμα 5: Υπολογίστε τη λειτουργία εξόδου και ενεργοποίησης

Όπως συζητήθηκε προηγουμένως, η είσοδος που λαμβάνεται από ένα perceptron πολλαπλασιάζεται πρώτα με τα αντίστοιχα βάρη και στη συνέχεια, όλες αυτές οι σταθμισμένες εισόδους αθροίζονται μαζί. Αυτή η αθροιστική τιμή τροφοδοτείται στη συνέχεια για ενεργοποίηση για την απόκτηση του τελικού αποτελέσματος.

έξοδος = tf.nn.relu (tf.matmul (x, w))

Σημείωση: Σε αυτήν την περίπτωση, έχω χρησιμοποιήσει relu ως λειτουργία ενεργοποίησης μου. Είστε ελεύθεροι να χρησιμοποιήσετε οποιαδήποτε από τις λειτουργίες ενεργοποίησης ανάλογα με τις ανάγκες σας.

Βήμα 6: Υπολογίστε το κόστος ή το σφάλμα

Πρέπει να υπολογίσουμε το Κόστος = Σφάλμα μέσου τετραγώνου που δεν είναι παρά το τετράγωνο της διαφοράς της εξόδου perceptron και της επιθυμητής εξόδου.

απώλεια = tf.reduce_sum (tf.square (έξοδος - y))

Βήμα 7: Ελαχιστοποίηση σφάλματος

Ο στόχος ενός perceptron είναι να ελαχιστοποιήσει την απώλεια ή το κόστος ή το σφάλμα. Εδώ λοιπόν θα χρησιμοποιήσουμε το Gradient Descent Optimizer.

optimizer = tf.train.GradientDescentOptimizer (0.01) train = optimizer.minimize (απώλεια)

Βήμα 8: Αρχικοποιήστε όλες τις μεταβλητές

Οι μεταβλητές ορίζονται μόνο με βλ. Μεταβλητή. Πρέπει λοιπόν να αρχίσουμε τις καθορισμένες μεταβλητές.

init = tf.global_variables_initializer () sess = tf. Συνεδρία () sess.run (init)

Βήμα 9: Εκπαίδευση Perceptron σε επαναλήψεις

Πρέπει να εκπαιδεύσουμε το perceptron μας, δηλαδή να ενημερώνουμε τις τιμές βαρών και προκατάληψης στη διαδοχική επανάληψη για να ελαχιστοποιήσουμε το σφάλμα ή την απώλεια. Εδώ, θα εκπαιδεύσω το perceptron μας σε 100 εποχές.

for i in range (100): sess.run (τρένο, {x: train_in, y: train_out}) κόστος = sess.run (απώλεια, feed_dict = {x: train_in, y: train_out}) εκτύπωση ('Epoch-- ', i,' - απώλεια - ', κόστος)

Βήμα 10: Έξοδος

……

……

Όπως μπορείτε να δείτε εδώ, η απώλεια ξεκίνησε στις 2.07 και τελείωσε στις 0,27

.

Βαθιά μάθηση με Python: Δημιουργία βαθύ νευρωνικού δικτύου

Τώρα που δημιουργήσαμε με επιτυχία ένα perceptron και το εκπαιδεύσαμε για μια πύλη OR. Ας συνεχίσουμε αυτό το άρθρο και ας δούμε πώς μπορούμε να δημιουργήσουμε το δικό μας Neural Network από το Scratch, όπου θα δημιουργήσουμε ένα Input Layer, Hidden Layers και Output Layer.

Θα χρησιμοποιήσουμε το σύνολο δεδομένων MNIST. Το σύνολο δεδομένων MNIST αποτελείται από 60.000 εκπαίδευση δείγματα και 10.000 δοκιμές δείγματα χειρόγραφων ψηφίων εικόνων. Οι εικόνες έχουν μέγεθος 28 × 28 εικονοστοιχεία και η έξοδος μπορεί να βρίσκεται μεταξύ 0-9 .

Ο στόχος εδώ είναι να εκπαιδεύσει ένα μοντέλο που μπορεί να προσδιορίσει με ακρίβεια το ψηφίο που υπάρχει στην εικόνα

Πρώτον, θα χρησιμοποιήσουμε την παρακάτω εισαγωγή για να φέρουμε τη λειτουργία εκτύπωσης από το Python 3 στο Python 2.6+. Οι δηλώσεις __future__ πρέπει να βρίσκονται κοντά στην κορυφή του αρχείου επειδή αλλάζουν θεμελιώδη πράγματα για τη γλώσσα και έτσι ο μεταγλωττιστής πρέπει να το γνωρίζει από την αρχή.

από __future__ εισαγωγή print_function

Ακολουθεί ο κώδικας με σχόλια σε κάθε βήμα

# Εισαγωγή δεδομένων MNIST από tensorflow.examples.tutorials.mnist εισαγωγή input_data mnist = input_data.read_data_sets ('/ tmp / data /', one_hot = True) εισαγωγή tensorflow as tf import matplotlib.pyplot as plt # Parameters learning_rate = 0.001 training_epochs batch_size = 100 display_step = 1 # Parameters Network n_hidden_1 = 256 # 1st layer number of Features n_hidden_2 = 256 # 2nd layer number of Features n_input = 784 # MNIST data input (img σχήμα: 28 * 28) n_classes = 10 # MNIST συνολικές τάξεις ( 0-9 ψηφία) # tf Εισαγωγή γραφήματος x = tf.placeholder ('float', [None, n_input]) y = tf.placeholder ('float', [None, n_classes]) # Δημιουργία μοντέλου def multilayer_perceptron (x, βάρη , biases): # Κρυφό επίπεδο με επίπεδο ενεργοποίησης RELU_1 = tf.add (tf.matmul (x, βάρη ['h1']), μεροληψίες ['b1']) layer_1 = tf.nn.relu (layer_1) # Κρυφό στρώμα με RELU ενεργοποίηση layer_2 = tf.add (tf.matmul (layer_1, βάρη ['h2']), biases ['b2']) layer_2 = tf.nn.relu (layer_2) # Επίπεδο εξόδου με γραμμική ενεργοποίηση out_layer = tf. matmul (στρώμα _2, βάρη ['out']) + biases ['out'] return out_layer # Store layer weight & bias weight = {'h1': tf.Variable (tf.random_normal ([n_input, n_hidden_1])), 'h2' : tf.Variable (tf.random_normal ([n_hidden_1, n_hidden_2])), 'out': tf.Variable (tf.random_normal ([n_hidden_2, n_classes]))} προκαταλήψεις = {'b1': tf.Variable (tf. random_normal ([n_hidden_1])), 'b2': tf.Variable (tf.random_normal ([n_hidden_2])), 'out': tf.Variable (tf.random_normal ([n_classes]))} # Μοντέλο κατασκευής pred = multilayer_perceptron (x, βάρη, μεροληψίες) # Ορίστε απώλεια και κόστος βελτιστοποίησης = tf.reduce_mean (tf.nn.softmax_cross_entropy_with_logits (logits = pred, labels = y)) optimizer = tf.train.AdamOptimizer (learning_rate = learning_rate). ελαχιστοποίηση (κόστος) # Αρχικοποίηση των μεταβλητών init = tf.global_variables_initializer () #create μια κενή λίστα για να αποθηκεύσετε το ιστορικό κόστους και το ιστορικό ακρίβειας cost_history = [] correct_history = [] # Εκκίνηση του γραφήματος με το tf.Session () ως sess: sess.run (init ) # Κύκλος προπόνησης για το εύρος της εποχής (training_epochs): avg_cost = 0. total_batch = int (mnist.train.num_examples / batch_size) # Loop over all batch for i in range (total_batch): batch_x, batch_y = mnist.train.next_batch (batch_size) # Εκτέλεση βελτιστοποίησης op (backprop) και κόστος op (για να λάβετε τιμή απώλειας) _, c = sess.run ([optimizer, cost], feed_dict = {x: batch_x, y: batch_y}) # Υπολογισμός μέσης απώλειας avg_cost + = c / total_batch # Εμφάνιση αρχείων καταγραφής ανά βήμα epoch% display_step == 0: correct_prediction = tf.equal (tf.argmax (pred, 1), tf.argmax (y, 1)) # Υπολογισμός ακρίβειας ακρίβειας = tf.reduce_mean (tf.cast (correct_prediction, 'float') ) acu_temp = correct.eval ({x: mnist.test.images, y: mnist.test.labels}) #εξαγάγετε την ακρίβεια στη λίστα ακριβείας_history.append (acu_temp) # προσαρτήστε το ιστορικό κόστους cost_history.append (avg_cost) εκτύπωση ('Epoch:', '% 04d'% (εποχή +1), '- cost =', '{: .9f}'. Μορφή (avg_cost), '- Accuracy =', acu_temp) εκτύπωση ('Ολοκληρώθηκε η βελτιστοποίηση! #plot το ιστορικό κόστους plt.plot (cost_history) plt.show () #plot το ιστορικό ακρίβειας plt.plot (ακρίβεια _history) plt.show () # Μοντέλο δοκιμής correct_prediction = tf.equal (tf.argmax (pred, 1), tf.argmax (y, 1)) # Υπολογισμός ακρίβειας ακρίβειας = tf.reduce_mean (tf.cast (correct_prediction, ' float ')) εκτύπωση (' Accuracy: ', correct.eval ({x: mnist.test.images, y: mnist.test.labels}))

Παραγωγή:

c ++ τι είναι ο χώρος ονομάτων

Τώρα με αυτό, φτάνουμε στο τέλος αυτού του άρθρου Deep Learning with Python. Ελπίζω να έχετε κατανόηση των διαφόρων συστατικών της Deep Learning, Πώς ξεκίνησαν όλα και Πώς χρησιμοποιώντας το Python μπορούμε να δημιουργήσουμε ένα απλό perceptron και ένα Deep Neural Network.

Το Edureka's επιμελείται από επαγγελματίες του κλάδου σύμφωνα με τις απαιτήσεις και τις απαιτήσεις του κλάδου. Θα κυριαρχήσετε τις έννοιες όπως η λειτουργία SoftMax, το Autoencoder Neural Networks, το Restricted Boltzmann Machine (RBM) και θα συνεργαστείτε με βιβλιοθήκες όπως το Keras & TFLearn. Το μάθημα έχει επιμεληθεί ειδικά από ειδικούς του κλάδου με μελέτες περιπτώσεων σε πραγματικό χρόνο.

Έχετε μια ερώτηση για εμάς; Παρακαλώ αναφέρετέ το στην ενότητα σχολίων του 'Deep Learning with Python' και θα επικοινωνήσουμε μαζί σας.