Trí tuệ nhân tạo không tuân theo logic của tiến bộ khoa học
Công nghệ

Trí tuệ nhân tạo không tuân theo logic của tiến bộ khoa học

Chúng tôi đã viết nhiều lần trên MT về các nhà nghiên cứu và chuyên gia tuyên bố hệ thống học máy là “hộp đen” (1) ngay cả đối với những người xây dựng chúng. Điều này gây khó khăn cho việc đánh giá kết quả và sử dụng lại các thuật toán mới nổi.

Mạng nơ-ron - kỹ thuật cung cấp cho chúng ta các bot chuyển đổi thông minh và trình tạo văn bản khéo léo thậm chí có thể tạo ra thơ - vẫn là một bí ẩn khó hiểu đối với những người quan sát bên ngoài.

Chúng ngày càng lớn hơn và phức tạp hơn, xử lý các tập dữ liệu khổng lồ và sử dụng các mảng tính toán lớn. Điều này làm cho việc nhân rộng và phân tích các mô hình thu được tốn kém và đôi khi là không thể đối với các nhà nghiên cứu khác, ngoại trừ các trung tâm lớn với ngân sách khổng lồ.

Nhiều nhà khoa học đã nhận thức rõ vấn đề này. Trong số đó có Joel Pino (2), chủ tịch NeurIPS, hội nghị hàng đầu về khả năng tái tạo. Các chuyên gia dưới sự lãnh đạo của cô ấy muốn tạo ra một "danh sách kiểm tra khả năng tái tạo".

Pino cho biết, ý tưởng là để khuyến khích các nhà nghiên cứu cung cấp cho những người khác một lộ trình để họ có thể tái tạo và sử dụng công việc đã làm. Bạn có thể ngạc nhiên trước khả năng hùng biện của một trình tạo văn bản mới hoặc sự khéo léo siêu phàm của một robot trò chơi điện tử, nhưng ngay cả những chuyên gia giỏi nhất cũng không biết những điều kỳ diệu này hoạt động như thế nào. Do đó, việc tái tạo các mô hình AI không chỉ quan trọng đối với việc xác định các mục tiêu và hướng nghiên cứu mới mà còn là một hướng dẫn sử dụng thuần túy thực tế.

Những người khác đang cố gắng giải quyết vấn đề này. Các nhà nghiên cứu của Google đưa ra "thẻ mô hình" để mô tả chi tiết cách hệ thống được kiểm tra, bao gồm cả kết quả chỉ ra lỗi tiềm ẩn. Các nhà nghiên cứu tại Viện Trí tuệ nhân tạo Allen (AI2) đã xuất bản một bài báo nhằm mục đích mở rộng danh sách kiểm tra khả năng tái tạo của Pinot sang các bước khác trong quá trình thử nghiệm. “Hãy thể hiện tác phẩm của bạn,” họ thúc giục.

Đôi khi thông tin cơ bản bị thiếu vì dự án nghiên cứu thuộc sở hữu của họ, đặc biệt là của các phòng thí nghiệm làm việc cho công ty. Tuy nhiên, thường xuyên hơn, đó là dấu hiệu của việc không thể mô tả các phương pháp nghiên cứu đang thay đổi và ngày càng phức tạp. Mạng nơ-ron là một lĩnh vực rất phức tạp. Để có được kết quả tốt nhất, thường phải tinh chỉnh hàng nghìn "nút bấm", mà một số người gọi là "ma thuật đen". Việc lựa chọn mô hình tối ưu thường gắn liền với một số lượng lớn các thí nghiệm. Phép thuật trở nên rất đắt.

Ví dụ, khi Facebook cố gắng tái tạo công việc của AlphaGo, một hệ thống được phát triển bởi DeepMind Alphabet, nhiệm vụ này tỏ ra vô cùng khó khăn. Các yêu cầu tính toán khổng lồ, hàng triệu thử nghiệm trên hàng nghìn thiết bị trong nhiều ngày, kết hợp với việc thiếu mã, khiến hệ thống "rất khó, nếu không muốn nói là không thể, để tạo lại, kiểm tra, cải thiện và mở rộng", theo các nhân viên của Facebook.

Vấn đề có vẻ là chuyên biệt. Tuy nhiên, nếu chúng ta nghĩ xa hơn, hiện tượng các vấn đề về khả năng tái tạo kết quả và chức năng giữa nhóm nghiên cứu này và nhóm nghiên cứu khác làm suy yếu tất cả logic hoạt động của khoa học và các quá trình nghiên cứu mà chúng ta đã biết. Theo quy luật, kết quả của nghiên cứu trước đó có thể được sử dụng làm cơ sở cho các nghiên cứu sâu hơn nhằm kích thích sự phát triển của tri thức, công nghệ và tiến bộ chung.

Thêm một lời nhận xét