latviski

Όροι-Κλειδιά

Σε αυτή τη σελίδα συγκεντρώνουμε βασικούς όρους των Neural Networks με απλές εξηγήσεις.
• Neuron (Νευρώνας): Μικρή “μονάδα” που παίρνει εισόδους, τις ζυγίζει με βάρη και βγάζει έξοδο.
• Layer (Επίπεδο): Ομάδα νευρώνων. Συνήθως έχουμε input layer, hidden layer(s) και output layer.
• Weights (Βάρη): Οι αριθμοί που μαθαίνει το μοντέλο. Καθορίζουν πόσο επηρεάζει κάθε είσοδος την έξοδο.
• Bias: Επιπλέον αριθμός που βοηθάει το μοντέλο να προσαρμόζει καλύτερα την έξοδο.
• Activation function: Συνάρτηση που κάνει το δίκτυο μη-γραμμικό (π.χ. ReLU, Sigmoid, Softmax).
• Loss: Μέτρο του λάθους (πόσο απέχει η πρόβλεψη από τη σωστή απάντηση).
• Backpropagation: Ο τρόπος με τον οποίο “γυρνάει πίσω” το λάθος και ενημερώνονται τα βάρη.
• Epoch: Ένα πλήρες πέρασμα εκπαίδευσης πάνω από όλα τα training δεδομένα.
• Overfitting: Όταν το μοντέλο αποστηθίζει το training set και αποδίδει χειρότερα σε νέα δεδομένα.
• Regularization / Dropout: Τεχνικές που μειώνουν το overfitting.