Video: Những Giọt Nước Mắt Oan Ức Của Giảng Viên Nguyễn Hồng Nhung 2025
Cho dù vấn đề học máy là đoán một số hoặc một lớp học, ý tưởng đằng sau chiến lược học tập của thuật toán k-Nearest Neighbors (kNN) luôn giống nhau. Thuật toán tìm thấy những quan sát tương tự nhất mà bạn phải tiên đoán và từ đó bạn có được một trực giác tốt về câu trả lời có thể bằng cách tính trung bình các giá trị láng giềng, hoặc bằng cách chọn lớp trả lời thường xuyên nhất trong số chúng.
Chiến lược học tập của một kNN giống như sự ghi nhớ. Nó giống như việc ghi nhớ câu trả lời là gì khi câu hỏi có những đặc điểm nhất định (dựa trên hoàn cảnh hoặc các ví dụ trong quá khứ) thay vì thực sự biết câu trả lời, bởi vì bạn hiểu câu hỏi bằng các quy tắc phân loại cụ thể. Theo một nghĩa nào đó, kNN thường được định nghĩa là một thuật toán lười biếng vì không học thực sự được thực hiện trong thời gian đào tạo, chỉ cần ghi dữ liệu.
Là một thuật toán lười biếng ngụ ý rằng kNN khá nhanh trong quá trình huấn luyện nhưng rất chậm khi dự đoán. (Hầu hết các hoạt động tìm kiếm và tính toán trên các láng giềng được thực hiện vào thời điểm đó). Nó cũng hàm ý rằng thuật toán này khá tốn bộ nhớ, bởi vì bạn phải lưu trữ dữ liệu của mình trong bộ nhớ (có nghĩa là có giới hạn cho các ứng dụng có thể khi xử lý các dữ liệu lớn).
Lý tưởng cho kNN có thể tạo sự khác biệt khi bạn phân loại và bạn có nhiều nhãn để đối phó (ví dụ: khi một đại lý phần mềm đăng một thẻ lên mạng xã hội hoặc khi đề xuất khuyến cáo bán hàng). kNN có thể dễ dàng đối phó với hàng trăm nhãn, trong khi thuật toán học khác phải chỉ định một mô hình khác cho mỗi nhãn.