Những lỗi của các hệ thống trí tuệ nhân tạo (AI) hiện đại dựa trên học máy (ML) không phải là sự cố ngẫu nhiên mà là kết quả hợp lý từ kiến trúc, phương pháp học và sự khác biệt cốt lõi với nhận thức con người. Khác với con người, AI không «hiểu» thế giới trong nghĩa ngữ pháp; nó phát hiện các mối quan hệ thống kê trong dữ liệu. Những lỗi của nó xuất hiện khi những mối quan hệ này bị vi phạm, khi cần suy luận trừu tượng, lý trí hoặc hiểu ngữ cảnh. Phân tích những lỗi này là rất quan trọng để đánh giá độ tin cậy của AI và xác định ranh giới ứng dụng của nó.
Nguyên nhân phổ biến và nguy hiểm nhất của lỗi là dư luận trong dữ liệu đào tạo. AI học và tăng cường những предjudge hiện có trong dữ liệu.
Đánh giá dân số: Vụ việc với hệ thống nhận diện khuôn mặt, mà cho thấy độ chính xác cao hơn nhiều đối với nam giới da trắng so với phụ nữ da đen vì đã được đào tạo trên một bộ dữ liệu không cân đối. Ở đây, AI không «mắc lỗi» mà chính xác là tái tạo sự không cân đối của thế giới thực, dẫn đến lỗi trong ứng dụng trong môi trường đa dạng.
Đánh giá ngữ nghĩa: Nếu trong dữ liệu đào tạo, cụm từ «y tá» thường liên kết với từ ngữ «cô ấy» và «kỹ sư» liên kết với từ ngữ «anh ấy», mô hình sẽ tạo ra các văn bản tái tạo những định kiến giới tính này, ngay cả khi không có chỉ định giới tính trong yêu cầu. Đây là lỗi ở mức ngữ cảnh xã hội mà mô hình không hiểu.
Điều thú vị: Trong khoa học máy tính, nguyên tắc «Garbage In, Garbage Out» (GIGO) — «mусор vào, mусор ra». Đối với AI, nó đã được chuyển đổi thành nguyên tắc sâu sắc hơn «Bias In, Bias Out» — «sự dư luận vào, sự dư luận ra». Hệ thống không thể vượt qua giới hạn của dữ liệu mà nó đã đào tạo.
Đây là những thay đổi cố ý, thường không dễ dàng nhận biết đối với con người, trong dữ liệu đầu vào dẫn đến kết quả sai lầm nghiêm trọng của AI.
Ví dụ với hình ảnh: Dán một mảnh dán màu và hình dạng nhất định lên dấu hiệu «CHỜ» có thể làm cho hệ thống nhận diện hình ảnh tự động phân loại nó như dấu hiệu «giới hạn tốc độ». Đối với con người, dấu hiệu vẫn rõ ràng là nhận biết được.
Cơ chế: Các mẫu ngược tận dụng «vùng mờ» trong không gian dấu hiệu của mô hình. AI nhận biết thế giới không phải như các đối tượng toàn vẹn mà như một bộ mẫu thống kê. Một «phù hợp» nhỏ nhưng chiến lược có thể dịch chuyển điểm dữ liệu trong không gian dấu hiệu qua ranh giới quyết định của mô hình, thay đổi phân loại.
AI, đặc biệt là các mạng thần kinh sâu, có xu hướng переобуч (overfitting) — chúng nhớ không phải các quy luật chung mà các ví dụ cụ thể từ mẫu đào tạo, bao gồm cả tiếng ồn.
Lỗi trên dữ liệu «khác phân phối»: Mô hình được đào tạo trên các bức ảnh chó và mèo chụp trong nhà vào ban ngày có thể hoàn toàn mất độ chính xác nếu cung cấp cho nó hình ảnh hồng ngoại ban đêm hoặc hình vẽ hoạt hình. Nó không phát hiện ra khái niệm抽象 «chó» mà học cách phản ứng với các mẫu pixel cụ thể.
Thiếu «lý trí»: Ví dụ tiêu biểu: AI có thể mô tả chính xác cảnh «người ngồi trên ngựa trong sa mạc», nhưng lại tạo ra câu «người cầm trong tay cú đánh base ball» khi ngồi trên lưng ngựa vì có thể xuất hiện cú đánh base ball trong ngữ cảnh thể thao ngoài trời trong dữ liệu. Nó không có khả năng hiểu về lý trí và mối quan hệ nguyên nhân và kết quả của thế giới.
Các mô hình ngôn ngữ (như GPT) cho thấy kết quả đáng kinh ngạc, nhưng lại mắc lỗi nghiêm trọng trong các nhiệm vụ yêu cầu hiểu ngữ cảnh sâu sắc hoặc ý nghĩa không phải từ văn bản.
Ngôn ngữ châm biếm và sарказm: Câu «Nghĩa là thời tiết rất tuyệt vời!» nói trong thời gian bão sẽ được mô hình hiểu một cách cụ thể như một đánh giá tích cực, vì từ ngữ tích cực («tuyệt vời», «thời tiết») trong dữ liệu liên kết với ngữ cảnh tích cực. Trong dữ liệu, từ ngữ tích cực ('tuyệt vời', 'thời tiết') liên kết với ngữ cảnh tích cực.
Lý luận logic nhiều bước: Các nhiệm vụ theo phong cách «Nếu tôi đặt trứng vào tủ lạnh, sau đó di chuyển tủ lạnh vào garage, trứng sẽ ở đâu?» đòi hỏi việc xây dựng và cập nhật mô hình tâm lý thế giới. AI hoạt động dựa trên dự đoán từ ngữ tiếp theo thường «mất」 các đối tượng trong giữa câu chuyện phức tạp hoặc đưa ra kết luận không hợp lý.
AI không xử lý tốt các tình huống vượt ra ngoài kinh nghiệm của nó, đặc biệt khi cần thừa nhận sự thiếu dữ liệu.
Problema «detect out-of-distribution»: AI y tế, được đào tạo để chẩn đoán viêm phổi từ hình ảnh chụp X-quang ngực, có thể đưa ra kết luận với độ tin cậy cao nhưng là sai lầm nếu được cung cấp hình ảnh chụp xương đùi. Nó không hiểu rằng điều này là vô nghĩa, vì không có mета-knowledge về giới hạn khả năng của mình.
Các nhiệm vụ sáng tạo và mở: AI có thể tạo ra một công thức hóa học có thể tin cậy nhưng hoàn toàn không thể thực hiện hoặc nguy hiểm, kế hoạch xây dựng cầu vi phạm các luật vật lý, hoặc tài liệu pháp lý với các liên kết đến các luật không tồn tại. Nó thiếu một bộ lọc nội bộ phê duyệt dựa trên hiểu biết về bản chất các hiện tượng.
Ví dụ từ thực tế: Năm 2016, Microsoft ra mắt chatbot Tay trên Twitter. Bot được đào tạo trên tương tác với người dùng. Trong 24 giờ, nó đã trở thành một máy tạo ra các phát biểu phân biệt chủng tộc, kỳ thị giới tính và xúc phạm, vì đã học các phản ứng phổ biến và cảm xúc nhất từ môi trường mới, thù địch của mình. Điều này không phải là lỗi của thuật toán mà là công việc chính xác của nó dẫn đến kết quả thảm họa trong môi trường xã hội không thể dự đoán.
New publications: |
Popular with readers: |
News from other countries: |
![]() |
Editorial Contacts |
About · News · For Advertisers |
Vietnam Digital Library ® All rights reserved.
2023-2026, BIBLIO.VN is a part of Libmonster, international library network (open map) Keeping the heritage of Vietnam |
US-Great Britain
Sweden
Serbia
Russia
Belarus
Ukraine
Kazakhstan
Moldova
Tajikistan
Estonia
Russia-2
Belarus-2