Quay lại vấn đề chính

Từ khoa học viễn tưởng đến hiện thực: Mối nguy hiểm thực sự của AI

Sự trỗi dậy của trí tuệ nhân tạo thể hiện một bước đột phá công nghệ quan trọng, sẵn sàng cách mạng hóa xã hội giống như Internet, máy tính cá nhân và điện thoại di động đã làm được. Tác động của nó có sức lan tỏa, thâm nhập vào nhiều khía cạnh khác nhau của đời sống con người từ công việc, giáo dục đến các hoạt động giải trí. Sự tiến bộ nhanh chóng của mạng lưới thần kinh đang gây ra một số lo ngại, thôi thúc chúng ta khám phá những mối nguy hiểm tiềm tàng mà trí tuệ nhân tạo có thể gây ra cho nhân loại trong bài viết này.

AI có nguy hiểm không? Ai lên tiếng quan ngại?

Trong các bộ phim khoa học viễn tưởng, ý tưởng về trí tuệ nhân tạo không thể kiểm soát nhằm mục đích thống trị hoặc tiêu diệt loài người là một chủ đề phổ biến, như đã thấy trong các bộ phim như "The Matrix" và "The Terminator". Với tốc độ tiến bộ công nghệ nhanh chóng ngày nay, việc theo kịp một người bình thường có thể là một thách thức. Sự tiến bộ nhanh chóng của AI đang khiến xã hội của chúng ta thích ứng nhanh chóng, gây ra những lo ngại do sự phức tạp của những công nghệ này và nỗi sợ hãi bẩm sinh của con người về những điều chưa biết.

Không chỉ những người bình thường cảm thấy lo lắng về AI mà các chuyên gia trong lĩnh vực này cũng đang bày tỏ mối quan ngại của mình. Ví dụ, Geoffrey Hinton, thường được gọi là "cha đỡ đầu của AI", đã bày tỏ những lo ngại của riêng mình:

Những thứ này có thể trở nên thông minh hơn chúng ta và có thể quyết định tiếp quản, và bây giờ chúng ta cần lo lắng về cách ngăn chặn điều đó xảy ra.

Tôi đã nghĩ rất lâu rằng chúng ta còn cách đó 30 đến 50 năm nữa. Vì vậy, tôi gọi đó là điều khác xa với thứ có trí thông minh tổng quát cao hơn con người. Bây giờ, tôi nghĩ chúng ta có thể gần gũi hơn nhiều, có lẽ chỉ còn 5 năm nữa thôi.

Có một mối nguy hiểm nghiêm trọng là chúng ta sẽ sớm có được những thứ thông minh hơn chúng ta và những thứ này có thể có động cơ xấu và chiếm quyền kiểm soát.

Vào ngày 22 tháng 3 năm 2023, một bức thư ngỏ được xuất bản kêu gọi tạm dừng phát triển trí tuệ nhân tạo mạnh hơn GPT-4 trong thời gian sáu tháng:

Các hệ thống AI hiện đại hiện đang trở nên cạnh tranh với con người trong các nhiệm vụ chung và chúng ta phải tự hỏi: Chúng ta có nên để máy móc tràn ngập các kênh thông tin của mình bằng những thông tin tuyên truyền và thông tin sai sự thật không? Chúng ta có nên tự động hóa tất cả các công việc, bao gồm cả những công việc đã hoàn thành không? Chúng ta có nên phát triển những bộ óc phi nhân loại mà cuối cùng có thể đông hơn, thông minh hơn, lỗi thời và thay thế chúng ta không? Chúng ta có nên mạo hiểm mất quyền kiểm soát nền văn minh của mình không? Những quyết định như vậy không được phép giao cho các nhà lãnh đạo công nghệ không được bầu chọn. Các hệ thống AI mạnh mẽ chỉ nên được phát triển khi chúng ta tin tưởng rằng tác động của chúng sẽ tích cực và rủi ro của chúng có thể kiểm soát được. Sự tin cậy này phải được chứng minh rõ ràng và tăng lên cùng với mức độ ảnh hưởng tiềm ẩn của hệ thống.

Bức thư được ký bởi 1800 lãnh đạo các công ty công nghệ, 1500 giáo sư, học giả và nhà nghiên cứu trong lĩnh vực AI:

  • Elon Musk, CEO của SpaceX, Tesla và Twitter
  • Steve Wozniak, Đồng sáng lập, Apple
  • Emad Mostaque, Giám đốc điều hành, AI ổn định
  • Jaan Tallinn, Đồng sáng lập Skype, Trung tâm Nghiên cứu Rủi ro Hiện sinh, Viện Tương lai Cuộc sống
  • Evan Sharp, Đồng sáng lập, Pinterest
  • Craig Peters, Giám đốc điều hành, Getty Images
  • Mark Nitzberg, Trung tâm AI tương thích với con người, UC Berkeley, Giám đốc điều hành
  • Gary Marcus, Đại học New York, nhà nghiên cứu AI, Giáo sư danh dự
  • Zachary Kenton, DeepMind, Nhà khoa học nghiên cứu cấp cao
  • Ramana Kumar, DeepMind, Nhà khoa học nghiên cứu
  • Michael Osborne, Đại học Oxford, Giáo sư về Học máy
  • Adam Smith, Đại học Boston, Giáo sư Khoa học Máy tính, Giải Gödel, Giải Kanellakis

Tổng cộng, hơn 33.000 chữ ký đã được thu thập.

Những nhân vật đáng chú ý khác, chẳng hạn như Sam Altman (CEO, OpenAI), Geoffrey Hinton (Người đoạt giải Turing), Dario Amodei (CEO, Anthropic) và Bill Gates, cũng như hơn 350 giám đốc điều hành và nhà nghiên cứu AI đã ký vào tuyên bố sau:

Giảm thiểu nguy cơ tuyệt chủng từ A.I. phải là ưu tiên toàn cầu bên cạnh các rủi ro quy mô xã hội khác, chẳng hạn như đại dịch và chiến tranh hạt nhân.

Mối nguy hiểm của trí tuệ nhân tạo

Năm 2018, một chiếc xe Uber tự lái đã tông chết một người đi bộ.

Vào năm 2022, các nhà khoa học đã cấu hình lại một hệ thống AI được thiết kế ban đầu để tạo ra các phân tử chữa bệnh, không độc hại nhằm sản xuất các tác nhân chiến tranh hóa học. Bằng cách thay đổi cài đặt của hệ thống để thưởng cho độc tính thay vì trừng phạt nó, họ có thể nhanh chóng tạo ra 40.000 phân tử tiềm năng cho chiến tranh hóa học chỉ trong sáu giờ.

Vào năm 2023, các nhà nghiên cứu đã chứng minh cách GPT-4 có thể điều khiển nhân viên TaskRabbit hoàn thành xác minh Captcha. Gần đây hơn, một sự cố bi thảm đã được báo cáo, trong đó một cá nhân đã tự kết liễu đời mình sau một cuộc trò chuyện đáng lo ngại với một chatbot.

GPT-4 vượt qua xác minh Captcha

Việc sử dụng hệ thống AI, bất kể mục đích dự định của chúng là gì, đều có thể dẫn đến những hậu quả tiêu cực, chẳng hạn như:

  • Mất việc do tự động hóa
  • Deepfake và thông tin sai lệch
  • Vi phạm quyền riêng tư
  • Quy định pháp lý không rõ ràng
  • Sai lệch thuật toán do dữ liệu xấu
  • Khủng hoảng tài chính
  • Tội phạm điện tử
  • Tự động hóa vũ khí
  • Siêu trí tuệ không thể kiểm soát

Hệ thống trí tuệ nhân tạo ngày càng trở nên mạnh mẽ và chúng ta không biết những hạn chế của chúng. Những hệ thống này có thể được sử dụng cho mục đích xấu. Hãy xem xét các rủi ro khác nhau chặt chẽ hơn.

Mất việc làm do tự động hóa bởi AI

Theo nghiên cứu do Goldman Sachs thực hiện, trí tuệ nhân tạo có thể tác động đáng kể đến thị trường việc làm trên toàn thế giới. Bằng cách phân tích cơ sở dữ liệu chi tiết về nội dung nhiệm vụ của hơn 900 ngành nghề ở Hoa Kỳ và 2000 ngành nghề trong cơ sở dữ liệu ESCO của Châu Âu, các nhà kinh tế của Goldman Sachs ước tính rằng khoảng 2/3 số ngành nghề được tự động hóa ở một mức độ nào đó bởi AI.

Phần trăm nghề nghiệp và tỷ lệ khối lượng công việc được tự động hóa bởi AI

Trục tung hiển thị Tỷ lệ khối lượng công việc nghề nghiệp được tự động hóa bởi AI. Trục hoành hiển thị Phần trăm nghề nghiệp.

Những thay đổi trong quy trình làm việc do những tiến bộ này gây ra có thể tự động hóa tương đương 300 triệu việc làm toàn thời gian. Tuy nhiên, không phải tất cả công việc tự động này đều dẫn đến tình trạng sa thải nhân viên. Nhiều công việc và ngành công nghiệp chỉ dễ bị tự động hóa một phần, nghĩa là chúng có nhiều khả năng được AI bổ sung hơn là bị thay thế hoàn toàn.

Seo.ai thậm chí còn đưa ra dự đoán này xa hơn khi ước tính rằng khoảng 800 triệu việc làm trên toàn cầu có thể được thay thế bởi trí tuệ nhân tạo vào năm 2030. Để chuẩn bị cho sự thay đổi sắp tới này, dự kiến trong ba năm tới, hơn 120 triệu công nhân sẽ được đào tạo lại .

Nếu bạn muốn biết nghề nào dễ bị tự động hóa hơn và nghề nào ít bị đe dọa bởi tự động hóa hơn, hãy xem bài viết của chúng tôi về chủ đề này.

Thông tin sai lệch

Ngay cả những mô hình ngôn ngữ lớn tiên tiến nhất cũng dễ tạo ra thông tin không chính xác hoặc vô nghĩa. Những lỗi này (ảo giác) thường là kết quả của việc mô hình phụ thuộc vào các mẫu thống kê trong dữ liệu mà nó đã được đào tạo thay vì sự hiểu biết hoặc lý luận thực sự.

Nói cách khác, chatbot đôi khi có thể tạo nên sự thật. Điều này đã được làm rõ vào năm 2023, khi một luật sư ở New York gặp rắc rối vì sử dụng ChatGPT để tiến hành nghiên cứu pháp lý cho một vụ thương tích cá nhân. Anh ấy đã tổng hợp một bản tóm tắt dài 10 trang, tham khảo một số quyết định của tòa án trước đó, tất cả đều được chứng minh là hoàn toàn bịa đặt bởi chatbot. Kết quả là luật sư và một đồng nghiệp đã bị thẩm phán liên bang xử phạt và phạt mỗi người 5.000 USD.

Vào năm 2024, một luật sư khác ở New York đã bị kỷ luật vì trích dẫn một trường hợp không tồn tại do trí tuệ nhân tạo tạo ra.

Trí tuệ nhân tạo gây ảo giác

Một ví dụ khác là Stack Overflow, một trang web hỏi đáp chủ yếu được các lập trình viên và nhà phát triển sử dụng để đặt câu hỏi kỹ thuật, tìm kiếm trợ giúp về các vấn đề về mã hóa và chia sẻ kiến thức trong cộng đồng lập trình.

Trang web đã phải cấm tất cả việc sử dụng AI tổng hợp, vì tỷ lệ nhận được câu trả lời đúng trung bình từ các chatbot khác nhau là quá thấp mặc dù các câu trả lời thường có vẻ thuyết phục.

Thao túng xã hội

Ngày nay, các nền tảng truyền thông xã hội tràn ngập quá nhiều nội dung, việc theo kịp tất cả có thể khiến bạn choáng ngợp. Đó là lúc mà việc quản lý bằng thuật toán xuất hiện. Về cơ bản, nó giúp sàng lọc mọi tiếng ồn và cung cấp cho người dùng nội dung mà họ có nhiều khả năng quan tâm nhất dựa trên hành vi trong quá khứ. Mặc dù điều này có thể hữu ích trong việc quản lý luồng thông tin vô tận nhưng điều đó cũng có nghĩa là nền tảng này có nhiều quyền kiểm soát trong việc định hình những gì người dùng nhìn thấy và tương tác.

Tuy nhiên, việc thay đổi nội dung hiển thị trên nguồn cấp tin tức của ai đó có thể ảnh hưởng đến tâm trạng của họ và cách họ nhìn thế giới nói chung. Vào tháng 1 năm 2012, các nhà khoa học dữ liệu của Facebook đã chứng minh các quyết định quản lý News Feed có thể thay đổi mức độ hạnh phúc của người dùng như thế nào. Các sự kiện vào tháng 1 năm 2021 tại Hoa Kỳ tại Điện Capitol Hoa Kỳ càng làm nổi bật thêm việc sử dụng mạng xã hội của một người nào đó có thể đóng một vai trò như thế nào trong quá trình cực đoan hóa.

Ngoài ra, vì nội dung giật gân có xu hướng khiến người dùng bị cuốn hút trong thời gian dài hơn nên thuật toán có thể vô tình hướng người dùng tới nội dung khiêu khích và có hại nhằm tăng mức độ tương tác. Ngay cả việc đề xuất nội dung dựa trên sở thích của người dùng cũng có thể gặp vấn đề vì nó có thể củng cố thêm niềm tin của họ trong một "bong bóng bộ lọc" thay vì đưa họ đến những quan điểm đa dạng. Điều này cuối cùng có thể dẫn đến sự phân cực gia tăng giữa những người dùng.

Mọi người trong bong bóng của họ

Khi chúng tôi trao quyền quyết định của mình cho các nền tảng, về cơ bản chúng tôi đang trao cho họ quyền kiểm soát những gì chúng tôi thấy. Phương tiện truyền thông xã hội, với các thuật toán tiên tiến, vượt trội trong việc tiếp thị mục tiêu bằng cách hiểu được sở thích và suy nghĩ của chúng ta. Các cuộc điều tra gần đây đang xem xét vai trò của Cambridge Analytica và các công ty tương tự trong việc sử dụng dữ liệu từ 50 triệu người dùng Facebook để tác động đến các sự kiện chính trị lớn như cuộc bầu cử Tổng thống Mỹ năm 2016 và cuộc trưng cầu dân ý về Brexit của Anh. Nếu những cáo buộc này được chứng minh là đúng thì nó cho thấy tiềm năng của AI trong việc thao túng xã hội. Một ví dụ gần đây hơn là Ferdinand Marcos, Jr. sử dụng đội quân troll TikTok để gây ảnh hưởng đến các cử tri trẻ tuổi trong cuộc bầu cử tổng thống Philippines năm 2022. Bằng cách tận dụng dữ liệu cá nhân và thuật toán, AI có thể nhắm mục tiêu một cách hiệu quả vào các cá nhân bằng những tuyên truyền cụ thể, cho dù tuyên truyền đó dựa trên sự thật hay hư cấu.

Deepfakes

Deepfakes đề cập đến các video hoặc hình ảnh được thay đổi kỹ thuật số mô tả chân thực một cá nhân đang nói hoặc làm điều gì đó mà họ chưa bao giờ thực sự nói hoặc làm. Công nghệ này sử dụng thuật toán deep learning để thao tác các đoạn phim và âm thanh hiện có nhằm tạo ra nội dung giả mạo đầy thuyết phục.

Nhà tương lai học Martin Ford nói: “Không ai biết điều gì là thật và điều gì không. “Vì vậy, nó thực sự dẫn đến một tình huống mà bạn thực sự không thể tin vào mắt và tai của mình; bạn không thể dựa vào những gì mà về mặt lịch sử, chúng tôi coi là bằng chứng tốt nhất có thể… Đó sẽ là một vấn đề lớn.”

Một trong những lý do chính khiến deepfake được coi là nguy hiểm là khả năng chúng được sử dụng cho mục đích xấu. Ví dụ: deepfake có thể được sử dụng để tạo bằng chứng video giả trong các vụ án pháp lý, buộc tội các cá nhân mà họ không phạm phải hoặc thậm chí mạo danh một nhân vật chính trị để truyền bá thông tin sai lệch. Bằng cách thao túng phương tiện truyền thông theo cách này, deepfake có khả năng phá vỡ niềm tin vào các nguồn thông tin truyền thống và gieo rắc sự nhầm lẫn và bất hòa trong xã hội.

Theo DeepMedia, một công ty nghiên cứu về các công cụ phát hiện phương tiện tổng hợp, 500.000 deepfake đã được đăng trên các trang mạng xã hội trên toàn cầu vào năm 2023. Con số đó gấp 3 lần số lượng video deepfake và gấp 8 lần số lượng deepfake giọng nói so với năm 2022.

Một số ví dụ gần đây về việc sử dụng deepfake có mục đích xấu bao gồm việc tạo ra nội dung khiêu dâm giả mạo người nổi tiếng, trong đó khuôn mặt của những người nổi tiếng được chèn kỹ thuật số vào video khiêu dâm mà không có sự đồng ý của họ. Ngoài ra, đã có trường hợp video deepfake được sử dụng để thao túng giá cổ phiếu, bôi nhọ cá nhân hoặc truyền bá tuyên truyền chính trị. Những ví dụ này nêu bật khả năng deepfake được sử dụng cho các mục đích gây hại và lừa đảo.

Tội phạm mạng

Tội phạm mạng bao gồm nhiều hoạt động tội phạm sử dụng các thiết bị và mạng kỹ thuật số. Những tội phạm này liên quan đến việc sử dụng công nghệ để thực hiện hành vi gian lận, đánh cắp danh tính, vi phạm dữ liệu, vi rút máy tính, lừa đảo và các hành vi độc hại khác. Tội phạm mạng khai thác điểm yếu trong hệ thống và mạng máy tính để truy cập trái phép, đánh cắp thông tin nhạy cảm, làm gián đoạn dịch vụ và gây hại cho cá nhân, tổ chức và chính phủ.

Các đối thủ đang ngày càng sử dụng các công cụ AI sẵn có như ChatGPT, Dall-E và Midjourney để thực hiện các cuộc tấn công lừa đảo tự động, tấn công mạo danh, tấn công kỹ thuật xã hội và chatbot hỗ trợ khách hàng giả mạo.

Theo Báo cáo tình trạng lừa đảo năm 2023 của SlashNext, số lượng email lừa đảo độc hại đã tăng 1265%, phần lớn là do việc sử dụng các công cụ AI cho các cuộc tấn công có chủ đích.

Các cuộc tấn công mạo danh ngày càng trở nên phổ biến. Những kẻ lừa đảo đang sử dụng ChatGPT và các công cụ khác để mạo danh các cá nhân và tổ chức thực sự, tham gia vào hành vi trộm cắp danh tính và lừa đảo. Tương tự như các cuộc tấn công lừa đảo, chúng sử dụng chatbot để gửi tin nhắn thoại giả dạng một người bạn, đồng nghiệp hoặc thành viên gia đình đáng tin cậy nhằm lấy thông tin cá nhân hoặc quyền truy cập vào tài khoản. Trong một trường hợp đáng chú ý vào tháng 3 năm 2019, người đứng đầu công ty con ở Anh của một công ty năng lượng Đức đã trở thành nạn nhân của một kẻ lừa đảo giả giọng của CEO, dẫn đến việc chuyển gần 200.000 bảng Anh (243.000 USD) vào tài khoản ngân hàng Hungary. Số tiền sau đó được chuyển đến Mexico và phân tán đến nhiều địa điểm. Các nhà điều tra chưa xác định được bất kỳ nghi phạm nào.

Tội phạm mạng và hình phạt

Vào năm 2023, Trung tâm Khiếu nại Tội phạm Internet (IC3) đã nhận được số lượng khiếu nại chưa từng có từ công chúng Mỹ: tổng cộng 880.418 khiếu nại đã được gửi, với khoản thiệt hại có thể vượt quá 12,5 tỷ USD. Điều này cho thấy số lượng khiếu nại nhận được đã tăng gần 10% và tổn thất tăng 22% so với năm 2022. Bất chấp những con số đáng kinh ngạc này, điều quan trọng cần lưu ý là chúng có thể đánh giá thấp mức độ thực sự của tội phạm mạng vào năm 2023. Ví dụ: khi FBI gần đây đã triệt phá nhóm ransomware Hive, người ta phát hiện chỉ có khoảng 20% nạn nhân của Hive trình báo tội ác với cơ quan thực thi pháp luật.

Xâm phạm riêng tư

Một ví dụ điển hình về giám sát xã hội là việc Trung Quốc sử dụng công nghệ nhận dạng khuôn mặt trong văn phòng, trường học và các địa điểm khác. Công nghệ này không chỉ cho phép theo dõi chuyển động của các cá nhân mà còn có khả năng cho phép chính phủ thu thập dữ liệu rộng rãi để theo dõi hành động, hoạt động, mối quan hệ và niềm tin tư tưởng của họ.

Các cá nhân hiện có thể được theo dõi cả trực tuyến và trong cuộc sống hàng ngày của họ. Mỗi công dân được đánh giá dựa trên hành vi của họ, chẳng hạn như đi ẩu, hút thuốc ở khu vực cấm hút thuốc và thời gian chơi trò chơi điện tử. Hãy tưởng tượng rằng mỗi hành động đều ảnh hưởng đến điểm số cá nhân của bạn trong hệ thống tín nhiệm xã hội.

Khi Big Brother đang theo dõi bạn và sau đó đưa ra quyết định dựa trên thông tin đó, đó không chỉ là hành vi xâm phạm quyền riêng tư mà còn có thể nhanh chóng chuyển sang áp bức xã hội.

Khủng hoảng tài chính

Trong thế giới tài chính ngày nay, việc sử dụng thuật toán học máy rất phổ biến, khiến các quỹ đầu tư và công ty đầu tư phụ thuộc rất nhiều vào các mô hình này để phân tích cổ phiếu và tài sản. Các thuật toán này liên tục được cung cấp lượng lớn dữ liệu truyền thống và thay thế để đưa ra quyết định giao dịch. Tuy nhiên, ngày càng có nhiều lo ngại rằng giao dịch thuật toán có thể gây ra cuộc khủng hoảng tài chính lớn tiếp theo.

Sự cố Flash 2010. 600 tỷ USD bốc hơi trong 20 phút

Sự cố Flash 2010. 600 tỷ USD bốc hơi trong 20 phút

Một ví dụ đáng chú ý về sự nguy hiểm của các thuật toán bị lỗi là Flash Crash năm 2010, khi thị trường chứng khoán bất ngờ lao dốc gần 1.000 điểm chỉ trong vài phút trước khi nhanh chóng phục hồi. Mặc dù các chỉ số thị trường đã phục hồi một phần trong cùng ngày, nhưng Flash Crash đã xóa đi gần 1 nghìn tỷ USD giá trị thị trường. Sự giảm giá đột ngột và mạnh mẽ này phần lớn là do các thuật toán giao dịch tự động phản ứng với điều kiện thị trường một cách không thể đoán trước. Một trường hợp khác là Knight Capital Flash Crash vào năm 2012, khi một thuật toán bị trục trặc đã khiến công ty mất 440 triệu USD chỉ trong 45 phút, cuối cùng dẫn đến sự sụp đổ.

Những sự cố này đóng vai trò như lời nhắc nhở nghiêm túc về những rủi ro tiềm ẩn do giao dịch thuật toán trên thị trường tài chính gây ra. Khi các thuật toán không được thiết kế, kiểm tra hoặc giám sát đúng cách, chúng có thể gây ra những hậu quả thảm khốc. Điều quan trọng là các tổ chức tài chính phải xem xét kỹ lưỡng các thuật toán của họ và đảm bảo áp dụng các biện pháp quản lý rủi ro phù hợp để ngăn chặn những thảm họa tương tự xảy ra trong tương lai.

Robot sát thủ

Vũ khí tự động được hỗ trợ bởi trí tuệ nhân tạo (AI) từ lâu đã là chủ đề tranh luận và quan tâm của các chính phủ, quan chức quân sự và những người ủng hộ nhân quyền. Những hệ thống này, còn được gọi là "robot sát thủ" hoặc "vũ khí tự động gây chết người", có khả năng lựa chọn và tấn công mục tiêu một cách độc lập mà không cần sự can thiệp của con người. Điều này đặt ra những lo ngại đáng kể về đạo đức, pháp lý và an ninh, vì những vũ khí này có khả năng đưa ra quyết định sinh tử mà không có sự giám sát của con người.

Sự phát triển của vũ khí tự động đã tăng tốc trong những năm gần đây, khi công nghệ AI ngày càng tiên tiến và phổ biến hơn. Những vũ khí này có thể bao gồm từ máy bay không người lái đến các hệ thống trên mặt đất có thể tự động xác định và tấn công mục tiêu. Những người ủng hộ vũ khí tự hành cho rằng chúng có thể giảm thương vong về người ở các khu vực xung đột và cung cấp các hoạt động quân sự chính xác và hiệu quả hơn. Tuy nhiên, các nhà phê bình cho rằng những hệ thống này đặt ra những vấn đề đạo đức nghiêm trọng và có thể gây ra những hậu quả không lường trước được, chẳng hạn như leo thang xung đột và gây thương vong cho dân thường.

Mối nguy hiểm do vũ khí tự động hỗ trợ bởi AI là rất thực tế. Các hệ thống này có khả năng bị hack hoặc gặp trục trặc, dẫn đến những hậu quả không lường trước được và mất kiểm soát. Ngoài ra, việc thiếu sự giám sát của con người trong quá trình ra quyết định làm tăng mối lo ngại về trách nhiệm giải trình và khả năng vi phạm luật nhân đạo quốc tế.

Robot sát thủ trong khoa học viễn tưởng

Vào năm 2020, hơn 30 quốc gia đã kêu gọi cấm sử dụng vũ khí tự động sát thương, với lý do lo ngại về khả năng máy móc đưa ra quyết định sống hay chết. Bất chấp những lo ngại này, việc phát triển và triển khai vũ khí tự động được hỗ trợ bởi AI vẫn tiếp tục tiến triển. Các quốc gia như Hoa Kỳ, Nga, Trung Quốc và Israel được biết là đang đầu tư rất nhiều vào các công nghệ này. Tại Mỹ, Bộ Quốc phòng đang phát triển các hệ thống vũ khí tự động, bao gồm máy bay không người lái bán tự động và phương tiện mặt đất không người lái.

Siêu trí tuệ không thể kiểm soát

Trí tuệ nhân tạo vượt qua bộ não con người ở nhiều khía cạnh khác nhau bao gồm tốc độ tính toán, tốc độ giao tiếp nội bộ, khả năng mở rộng, dung lượng bộ nhớ, độ tin cậy, khả năng sao chép, khả năng chỉnh sửa, chia sẻ bộ nhớ và khả năng học tập:

  • AI hoạt động ở tốc độ có khả năng là nhiều GHz so với giới hạn 200 Hz của tế bào thần kinh sinh học.
  • Các sợi trục truyền tín hiệu với tốc độ 120 m/s, trong khi máy tính truyền tín hiệu ở tốc độ điện hoặc ánh sáng.
  • AI có thể dễ dàng mở rộng quy mô bằng cách bổ sung thêm phần cứng, không giống như trí thông minh của con người bị giới hạn bởi kích thước bộ não và hiệu quả giao tiếp xã hội.
  • Trí nhớ làm việc ở con người bị hạn chế so với dung lượng bộ nhớ mở rộng của AI.
  • Độ tin cậy của bóng bán dẫn trong AI vượt trội so với tế bào thần kinh sinh học, mang lại độ chính xác cao hơn và ít dư thừa hơn.
  • Các mô hình AI có thể dễ dàng sao chép, sửa đổi và có thể học hỏi từ các trải nghiệm AI khác hiệu quả hơn con người.

Một ngày nào đó AI có thể đạt đến mức độ thông minh vượt xa con người, dẫn đến cái gọi là sự bùng nổ trí thông minh.

Siêu trí tuệ và sự tuyệt chủng của loài người

Ý tưởng tự cải thiện đệ quy này, trong đó AI liên tục tự cải thiện bản thân với tốc độ cấp số nhân, đã làm dấy lên mối lo ngại về hậu quả tiềm tàng của việc tạo ra một thực thể siêu thông minh. Hãy tưởng tượng một kịch bản trong đó AI đạt đến mức độ thông minh cho phép nó suy nghĩ nhanh hơn và vượt trội hơn con người theo mọi cách có thể tưởng tượng được. Siêu trí tuệ này có thể có khả năng đưa ra những quyết định có tác động lớn đến xã hội và lối sống của chúng ta. Giống như con người hiện đang nắm giữ số phận của nhiều loài trong tay, số phận của nhân loại một ngày nào đó có thể nằm trong tay một AI siêu thông minh.

Quá phụ thuộc vào AI và trách nhiệm pháp lý

Dựa quá nhiều vào công nghệ AI có thể dẫn đến giảm ảnh hưởng và hoạt động của con người trong một số lĩnh vực nhất định của xã hội. Ví dụ, sử dụng AI trong chăm sóc sức khỏe có thể dẫn đến giảm khả năng đồng cảm và lý luận của con người. Ngoài ra, việc sử dụng AI có tính sáng tạo để theo đuổi hoạt động sáng tạo có thể cản trở khả năng sáng tạo và biểu hiện cảm xúc của con người. Tương tác quá mức với các hệ thống AI cũng có thể dẫn đến suy giảm kỹ năng giao tiếp và xã hội ngang hàng. Mặc dù AI có thể mang lại lợi ích cho việc tự động hóa các nhiệm vụ, nhưng vẫn có những lo ngại về tác động của nó đối với trí tuệ, khả năng và ý thức cộng đồng nói chung của con người.

Hơn nữa, có những mối nguy hiểm tiềm ẩn có thể gây tổn hại về thể chất cho con người. Ví dụ: nếu các công ty chỉ dựa vào dự đoán AI cho lịch bảo trì mà không có xác minh khác, điều đó có thể dẫn đến trục trặc máy móc gây hại cho công nhân. Trong chăm sóc sức khỏe, các mô hình AI có thể dẫn đến chẩn đoán sai.

Ngoài tác hại về thể chất, còn có những cách phi vật lý mà AI có thể gây rủi ro cho con người nếu không được quản lý hợp lý. Điều này bao gồm các vấn đề về an toàn kỹ thuật số như phỉ báng hoặc bôi nhọ, an toàn tài chính như lạm dụng AI trong các khuyến nghị tài chính hoặc kiểm tra tín dụng cũng như các lo ngại về công bằng liên quan đến thành kiến trong AI dẫn đến việc từ chối hoặc chấp nhận không công bằng trong các chương trình khác nhau.

Và khi có sự cố xảy ra thì ai phải chịu trách nhiệm? Đó có phải là chính AI, nhà phát triển đã tạo ra nó, công ty đưa nó vào sử dụng hay là người vận hành nếu có sự tham gia của con người?

* * *

Tóm lại, mặc dù trí tuệ nhân tạo có nhiều rủi ro và mối đe dọa nhưng nó cũng có tiềm năng mang lại lợi ích to lớn cho xã hội và cải thiện cuộc sống của chúng ta. Điều quan trọng cần nhận ra là mặt tốt thường nhiều hơn mặt xấu khi nói đến công nghệ AI. Trong bài viết tiếp theo, chúng ta sẽ thảo luận về các chiến lược giảm thiểu rủi ro liên quan đến AI, đảm bảo rằng chúng ta có thể khai thác tối đa tiềm năng của nó để tạo ra những thay đổi tích cực.