Perceptron

2.2.3

Perceptron

Ενημέρωση 2020-02-26 Ανάγνωση 3 λεπτά
Σύνοψη
  • Το perceptron συγκλίνει σε πεπερασμένο αριθμό ενημερώσεων σε γραμμικά διαχωρίσιμα δεδομένα, καθιστώντας το έναν από τους παλαιότερους αλγορίθμους ταξινόμησης.
  • Οι προβλέψεις χρησιμοποιούν το πρόσημο ενός σταθμισμένου αθροίσματος \(\mathbf{w}^\top \mathbf{x} + b\)· αν το πρόσημο είναι λάθος, το αντίστοιχο δείγμα ενημερώνει τα βάρη.
  • Ο κανόνας ενημέρωσης — προσθήκη του λανθασμένα ταξινομημένου δείγματος κλιμακωμένου κατά τον ρυθμό μάθησης — παρέχει μια διαισθητική εισαγωγή στις μεθόδους βασισμένες σε κλίση.
  • Όταν τα δεδομένα δεν είναι γραμμικά διαχωρίσιμα, απαιτείται επέκταση χαρακτηριστικών ή τεχνικές πυρήνα.

Εισαγωγή #

Αυτή η μέθοδος πρέπει να ερμηνεύεται μέσα από τις υποθέσεις της, τις συνθήκες δεδομένων και τον τρόπο με τον οποίο οι επιλογές παραμέτρων επηρεάζουν τη γενίκευση.

Αναλυτική Επεξήγηση #

Μαθηματική Διατύπωση #

Οι προβλέψεις υπολογίζονται ως

$$ \hat{y} = \operatorname{sign}(\mathbf{w}^\top \mathbf{x} + b). $$

Αν ένα δείγμα \((\mathbf{x}_i, y_i)\) ταξινομηθεί λανθασμένα, ενημερώνουμε τις παραμέτρους μέσω

$$ \mathbf{w} \leftarrow \mathbf{w} + \eta\, y_i\, \mathbf{x}_i,\qquad b \leftarrow b + \eta\, y_i. $$

Όταν τα δεδομένα είναι γραμμικά διαχωρίσιμα, αυτή η διαδικασία είναι εγγυημένο ότι θα συγκλίνει.

Πειράματα σε Python #

Το ακόλουθο παράδειγμα εφαρμόζει το perceptron σε συνθετικά δεδομένα, αναφέρει τον αριθμό σφαλμάτων ανά εποχή και σχεδιάζει το προκύπτον όριο απόφασης.

from __future__ import annotations

import japanize_matplotlib
import matplotlib.pyplot as plt
import numpy as np
from sklearn.datasets import make_blobs
from sklearn.metrics import accuracy_score

def run_perceptron_demo(
    n_samples: int = 200,
    lr: float = 0.1,
    n_epochs: int = 20,
    random_state: int = 0,
    title: str = "Perceptron decision boundary",
    xlabel: str = "feature 1",
    ylabel: str = "feature 2",
    label_boundary: str = "decision boundary",
) -> dict[str, object]:
    """Train a perceptron on synthetic blobs and plot the decision boundary."""
    japanize_matplotlib.japanize()
    X, y = make_blobs(n_samples=n_samples, centers=2, cluster_std=1.0, random_state=random_state)
    y_signed = np.where(y == 0, -1, 1)

    w = np.zeros(X.shape[1])
    b = 0.0
    history: list[int] = []

    for _ in range(n_epochs):
        errors = 0
        for xi, target in zip(X, y_signed):
            update = lr * target if target * (np.dot(w, xi) + b) <= 0 else 0.0
            if update != 0.0:
                w += update * xi
                b += update
                errors += 1
        history.append(int(errors))
        if errors == 0:
            break

    preds = np.where(np.dot(X, w) + b >= 0, 1, -1)
    accuracy = float(accuracy_score(y_signed, preds))

    xx = np.linspace(X[:, 0].min() - 1, X[:, 0].max() + 1, 200)
    yy = -(w[0] * xx + b) / w[1]

    fig, ax = plt.subplots(figsize=(6, 5))
    ax.scatter(X[:, 0], X[:, 1], c=y, cmap="coolwarm", edgecolor="k")
    ax.plot(xx, yy, color="black", linewidth=2, label=label_boundary)
    ax.set_xlabel(xlabel)
    ax.set_ylabel(ylabel)
    ax.set_title(title)
    ax.legend(loc="best")
    fig.tight_layout()
    plt.show()

    return {"weights": w, "bias": b, "errors": history, "accuracy": accuracy}

metrics = run_perceptron_demo(
    title="Perceptron decision boundary",
    xlabel="feature 1",
    ylabel="feature 2",
    label_boundary="decision boundary",
)
print(f"Training accuracy: {metrics['accuracy']:.3f}")
print("Weights:", metrics['weights'])
print(f"Bias: {metrics['bias']:.3f}")
print("Errors per epoch:", metrics['errors'])

Το ακόλουθο παράδειγμα εφαρμόζει το perceptron σε συνθετικά δεδομένα σχήμα

Αναφορές #

  • Rosenblatt, F. (1958). The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain. Psychological Review, 65(6), 386–408.
  • Goodfellow, I., Bengio, Y., & Courville, A. (2016). Deep Learning. MIT Press.