MNIST
MLP (Multi-Layer Perceptron): Απλό νευρωνικό δίκτυο πλήρως συνδεδεμένων επιπέδων. Κάθε νευρώνας ενός επιπέδου συνδέεται με όλους τους νευρώνες του επόμενου.
Dense layer (Πλήρως συνδεδεμένο επίπεδο): Επίπεδο όπου κάθε είσοδος συνδυάζεται με βάρη (weights) για να δώσει την έξοδο του νευρώνα.
ReLU (Rectified Linear Unit): Συνάρτηση που βοηθάει το δίκτυο να μάθει μη γραμμικά μοτίβα και εκπαιδεύεται γρήγορα.
Softmax: Συνάρτηση ενεργοποίησης που μπαίνει στο τελευταίο επίπεδο όταν έχουμε πολλές κλάσεις (π.χ. 10 ψηφία). Παίρνει τις “ωμές” τιμές εξόδου του μοντέλου και τις μετατρέπει σε πιθανότητες για κάθε κλάση, έτσι ώστε όλες μαζί να αθροίζουν σε 1.
Παράδειγμα: αν το μοντέλο βγάλει πιθανότητες [0.01, 0.02 , 0.05, 0.87, 0.01, 0.01, 0.01, 0.01, 0 , 0.01
τότε προβλέπει το ψηφίο 3, γιατί έχει τη μεγαλύτερη πιθανότητα (0.87).
