Tại sao cần quan tâm về sự an toàn của AI?
Stephen Hawking, Elon Musk, Steve Wozniak, Bill Gates, và nhiều tên tuổi lớn khác trong ngành khoa học và công nghệ gần đây đã bày tỏ mối quan tâm của giới truyền thông và thông qua các bức thư ngỏ về những nguy cơ do AI gây ra. Tại sao chủ đề lại đột nhiên xuất hiện nhiều trong thời gian gần đây?
Tưởng rằng việc nghiên cứu thành công AI siêu thông minh như các bộ phim khoa học viễn tưởng sẽ diễn ra trong hàng thế kỷ trở lên. Tuy nhiên, nhờ các bước đột phá mới đây, nhiều mốc quan trọng về AI, làm cho nhiều chuyên gia nghiêm túc xem xét khả năng của siêu thông minh trên thế giới. Mặc dù một số chuyên gia vẫn cho rằng AI ở mức độ con người là cách xa hàng trăm năm nay, hầu hết các nghiên cứu về AI tại Hội nghị Puerto Rico năm 2015 đều đoán rằng nó sẽ xảy ra trước năm 2060. Vì phải mất nhiều thập kỷ để hoàn thành nghiên cứu về an toàn cần thiết, .
Vì AI có khả năng trở nên thông minh hơn bất kỳ con người nào, chúng ta không có cách đoán chắc nó sẽ hành xử như thế nào. Chúng ta không thể sử dụng các phát triển công nghệ trong quá khứ như là một cơ sở vì chúng ta chưa bao giờ tạo ra bất cứ thứ gì có khả năng. Ví dụ tốt nhất về những gì chúng ta có thể đối mặt có thể là sự tiến hóa của chúng ta. Mọi người giờ đây kiểm soát hành tinh chứ không phải vì chúng ta là người mạnh nhất, nhanh nhất hoặc lớn nhất, nhưng vì chúng ta là người thông minh nhất. Nếu chúng ta không còn là người thông minh nhất, liệu chúng ta có chắc chắn sẽ kiểm soát được không?
Vị trí của FLI là nền văn minh của chúng ta sẽ phát triển miễn là chúng ta giành chiến thắng cuộc đua giữa sức mạnh công nghệ ngày càng tăng và sự khôn ngoan mà chúng ta sẽ là người quản lý nó. Trong trường hợp công nghệ AI, vị trí của FLI là cách tốt nhất để giành chiến thắng trong cuộc chạy đua không phải là để cản trở cuộc đua đó, mà là đẩy nhanh tiến độ, bằng cách hỗ trợ nghiên cứu an toàn về AI.