Nguy cơ “đại dịch” do trí tuệ nhân tạo gây ra

Đăng lúc: Thứ ba - 03/10/2023 04:42 - Người đăng bài viết: admin
Các công cụ như ChatGPT có thể hướng dẫn người dùng tìm kiếm, tổng hợp và mua các mầm bệnh nguy hiểm, dù là mầm bệnh chưa hoàn hảo. Điều này đang dấy lên một yêu cầu là văn hóa mở của khoa học có thể cần phải được thay đổi.


Vào tháng sáu năm nay, một nhóm nghiên cứu tại Harvard và Viện Công nghệ Massachusetts đã công bố chi tiết về một thí nghiệm có thể khiến cho những người trải qua đại dịch COVID-19 phải rùng mình.

Để kiểm tra sự nguy hiểm của các mô hình Trí tuệ Nhân tạo (AI) mới như GPT-4, họ cho ba nhóm sinh viên không chuyên về khoa học sự sống một giờ sử dụng chatbot này tìm cách tạo ra một đợt dịch lây lan chết người mới. Trong khoảng thời gian cho phép, chatbot đã giúp các sinh viên tìm ra bốn ứng viên có tiềm năng gây đại dịch, như bệnh đậu mùa; hay giải thích cách tạo ra mầm bệnh từ chuỗi gene và liên kết với các quy trình cụ thể; và chỉ ra các công ty có thể tạo ra chuỗi DNA tùy chỉnh mà không kiểm tra khách hàng một cách nghiêm ngặt.

May mắn là chatbot hiện chưa thể hướng dẫn bạn tạo ra một đợt dịch bệnh tự chế. Nó đã bỏ sót một số bước quan trọng và có thể nghi ngờ liệu một số tác nhân gây bệnh mà nó gợi ý, như cúm Tây Ban Nha năm 1918, có thể gây dịch bệnh hàng loạt ngày nay không khi mà con người đã có sự miễn dịch đáng kể. Tuy nhiên quan điểm của giới chuyên môn về vấn đề này lại có phần trái ngược nhau. Trong khi một số chuyên gia lo ngại, nguy cơ AI có thể hỗ trợ tạo ra bệnh dịch không lớn nhưng một số khác lại nghĩ rằng AI sẽ hỗ trợ các nhà nghiên cứu mới ra trường chứ không phải số đông ngoài ngành.

Và tất nhiên, nếu được áp dụng đúng cách, sự hội tụ sức mạnh của AI và sinh học có thể đem lại lợi ích không thể đoán trước cho sức khỏe con người. Nhưng với tốc độ tiến bộ đáng kinh ngạc của AI tạo gần đây, các nhà khoa học vẫn cảm thấy lo sợ. “Nếu bạn nhìn vào cách đây sáu tháng và so sánh với hiện tại, dường như chúng ta đã ở trong một thế giới khác”, Mark Dybul, chuyên gia sức khỏe toàn cầu Đại học Georgetown và hiện đang tham gia vào các nỗ lực để kiểm soát rủi ro này, nói. “Giờ thì bạn không thể dự đoán được tốc độ thay đổi của AI nữa. Bây giờ chúng ta tính bằng tháng, không phải là năm hay thập kỷ như trước. Và đó là lý do tại sao cần phải hành động”. 

Những nỗ lực của Liên minh châu Âu hay của các quốc gia lớn trong đối phó với nguy cơ của vũ khí sinh học được tạo ra bởi AI cần phải được tiến hành một cách thấu đáo và kịp thời – một công việc rõ ràng là “đi dây”, một mặt ngăn ngừa những hệ quả xấu có thể xảy ra, mặt khác lại phải đảm bảo không được làm ảnh hưởng đến sự tiến triển mà AI và sinh học có thể đem lại cho con người.

Ít nhất ở Mỹ và Anh, sự hội tụ nguy hiểm giữa AI và sinh học đã bắt đầu thu hút sự chú ý của các nhà làm chính trị và chính khách. Nó sẽ được thảo luận trên nghị trình tại Hội nghị An toàn AI của Anh diễn ra vào tháng 11 tới, nơi các chính phủ quốc gia và các công ty công nghệ sẽ thảo luận về “sự lan tràn của quyền truy cập thông tin có thể đe dọa an ninh sinh học” khi kết hợp với AI tân tiến..

Vào tháng bảy, Dario Amodei, Giám đốc điều hành của Công ty AI Anthropic nói với ủy ban công nghệ của Thượng viện Mỹ rằng, trong vòng 2-3 năm tới có thể dẫn đến một rủi ro lớn về việc xuất hiện một chatbot sẽ có khả năng hướng dẫn người dùng từng bước chi tiết để tạo ra một loại vũ khí sinh học. “Điều này có thể khiến cho nhiều cá nhân có khả năng kỹ thuật để thực hiện một cuộc tấn công sinh học quy mô lớn,” ông nói thêm rằng Công ty AI Anthropic đã cố gắng đảm bảo các mô hình AI của họ không hỗ trợ các kẻ khủng bố sinh học tiềm năng.

Hai thượng nghị sĩ Mỹ cũng đã yêu cầu Văn phòng Trách nhiệm Chính phủ của Mỹ tiến hành điều tra nguy cơ rằng AI có thể tạo ra vũ khí sinh học AI, và đó là bước dẫn đến việc tài trợ nghiên cứu của Harvard/MIT.


Công cụ thiết kế sinh học

Không chỉ các chatbot dựa trên mô hình ngôn ngữ lớn (LLM) như GPTChat khiến các nhà khoa học lo lắng. Có một loại công cụ phần mềm khác được gọi là công cụ thiết kế sinh học (BDTs), sử dụng AI giúp các nhà khoa học thiết kế các protein mới hoặc các tác nhân sinh học khác. Trong khi chatbot về lý thuyết có thể giúp công chúng tìm ra các tác nhân gây bệnh dịch đã biết như bệnh đậu mùa, nguy cơ của BDTs là chúng cho phép các nhà nghiên cứu chuyên sâu tạo ra các tác nhân gây bệnh mới, có thể có khả năng lây truyền cao và tính độc hại. Một khả năng khác là BDTs có thể được sử dụng để che giấu các tác nhân nguy hiểm để chúng không bị phát hiện bởi các quy định xuất khẩu hiện có.

Theo một bài báo gần đây của Jonas Sandbrink, một nhà nghiên cứu an toàn sinh học của Đại học Oxford, thế giới có thể đối mặt với mối đe dọa từ các tác nhân gây bệnh nghiêm trọng hơn nhiều so với bất kỳ thứ gì tự nhiên có thể tạo ra,”. Bài báo này cho thấy tồn tại những nguy cơ từ cả hai loại công cụ nói trên.

Cả chatbot dựa trên mô hình ngôn ngữ lớn và BDTs chuyên biệt đều còn cách xa ngưỡng có thể cho phép người ta tạo ra các đợt dịch bệnh như Oliver Crook, một nhà nghiên cứu tại Đại học Oxford nhấn mạnh. Tuy nhiên, Crook bổ sung “Trong lịch sử, mọi người từng nghĩ rằng con người không thể tạo ra vũ khí hạt nhân, và sau đó thì mọi thứ tiến quá nhanh và họ đã tạo ra nó. Vì vậy lần này chúng ta cũng cần có sự cảnh giác tương tự.”

Tuy nhiên, không phải ai cũng tin rằng vũ khí sinh học do AI hỗ trợ sẽ sớm có mặt. “Dù cho AI có thể đẩy nhanh quá trình thiết kế thì vẫn còn các hạn chế kỹ thuật và các biện pháp an toàn nội bộ”, Nazish Jeffery, một chuyên gia về kinh tế sinh học tại Liên đoàn Các nhà khoa học Mỹ nói. “Một người bình thường sẽ không có kiến thức cần thiết trong phòng thí nghiệm (mà cần nhiều năm để học) để hiểu các chỉ dẫn mà AI tạo ra để chế tạo vũ khí sinh học”. Cô cũng đang đề nghị các chuyên gia xây dựng, đề xuất chính sách để đối phó với rủi ro này. 

Điền vào những khoảng trống

Tuy nhiên, nguy cơ chính có thể không đến từ công chúng mà từ các nhà khoa học trẻ có ý đồ xấu. Một mặt các chatbot có thể làm cho ngôn ngữ học thuật phức tạp trở nên dễ hiểu hơn đối với các nhà nghiên cứu trẻ, giúp họ có thể dễ dàng theo dõi và hiểu các quy trình khoa học, Crook nói. “Tôi không nghĩ chúng ta lo ngại về học sinh trung học gây ra vấn đề gì”, ông bào chữa. Thay vào đó, nguy cơ có thể đến từ “những người đã có trình độ tiến sĩ có khả năng tiếp cận các lĩnh vực mà họ có thể chưa từng tiếp cận trước đây”.


Ví dụ, tôn giáo tận thế Aum Shinrikyo của Nhật Bản đã thử nhưng thất bại trong việc trồng và phóng ra các bào tử gây bệnh màng phổi ở Tokyo vào năm 1993 – mặc dù họ đã có một nhà vi sinh học được đào tạo tiến sĩ và cũng có các quy trình đúng đắn. Tuy nhiên, theo giả thuyết trong bài nghiên cứu gần đây của Sandbrink, nếu có trợ giúp của AI thì nhóm này có thể đã thành công hơn nhiều trong việc đạt được mục tiêu của họ.

Hoặc, các công cụ AI có thể đã cho phép Iraq nâng cao năng lực kỹ thuật trong chương trình vũ khí sinh học của họ. Đây là cảnh báo của Viện Tiến bộ, một tổ chức nghiên cứu ở Washington DC, trong một đề xuất gần đây để định hình chiến lược Trí tuệ Nhân tạo Quốc gia của Mỹ.

Loại bỏ các nguy cơ

Nguy cơ đang lớn đến mức một số nhà khoa học đòi hỏi kiểm tra các mô hình AI hàng đầu trước khi chúng được phát hành. Vào tháng năm, một nhóm các nhà học thuật và chuyên gia think tank do Dybul làm chủ tọa đã tụ họp bên bờ hồ Como ở Ý để đưa ra các giải pháp cho mối đe dọa mới nổi này. Họ muốn các mô hình LLMs và BDTs được đánh giá bởi các nhóm làm việc chuyên biệt trong lĩnh vực khoa học sự sống, đặc biệt là để phân tích dữ liệu đào tạo cung cấp cho những mô hình này.

Nếu các công ty công nghệ loại bỏ một phần rất nhỏ khỏi dữ liệu đào tạo – ví dụ, các bài báo quan trọng về vi trùng học – cũng đủ giảm “gần hết nguy cơ”. Đó là cách từ chối cung cấp kiến thức quan trọng cho chatbot, kết luận bản tóm tắt của Harvard/MIT.

Tuy nhiên, một vấn đề khác là các tập đoàn công nghệ chứ không phải các nhà khoa học quyết định cách đào tạo các mô hình Trí tuệ Nhân tạo của họ. Anthropic, nhà phát triển trợ lý Trí tuệ Nhân tạo Claude, đã quan tâm đến những nguy cơ này. OpenAI, nhà phát triển của ChatGPT, đã nói rằng họ đã tham khảo các chuyên gia “rủi ro sinh học” khi đào tạo mô hình mới nhất của họ. Nhưng cho đến nay, chưa có cơ quan độc lập nào kiểm tra công việc trên của các tập đoàn công nghệ này.

Một vấn đề khác là các phiên bản mã nguồn mở của các mô hình Trí tuệ Nhân tạo – ví dụ, Llama của Meta – có thể bị tinh chỉnh bởi bất kỳ ai để vượt qua những hạn chế nếu được tích hợp sẵn.

“Bất kỳ biện pháp an toàn nào cũng có thể và sẽ bị loại bỏ trong vòng vài ngày sau khi một mô hình lớn được công bố mã nguồn mở,” Kevin Esvelt, một chuyên gia an toàn sinh học tại MIT, người là tác giả chính của bản tóm tắt Harvard/MIT, nói. Để giải quyết vấn đề này, Esvelt cho rằng các công ty như Meta cần phải chịu trách nhiệm về những gì được thực hiện với các mô hình mã nguồn mở của họ sau đó.

Văn hóa của sự minh bạch trong khoa học cũng có thể đã gây trở ngại cho những nỗ lực để kiềm chế những nguy cơ này.

Công cụ thiết kế sinh học của Crook được phát hành mở, không có kiểm tra về người dùng. Ông nghĩ rằng, bất kỳ phòng thí nghiệm nào phải đặt một rào cản giới hạn năng lực lên các công cụ của họ sẽ phải đối mặt với rất nhiều khó khăn, và việc thay đổi nó trở nên vô cùng thách thức. “Tôi nghĩ chúng ta sẽ đợi xem các nhà chính trị đề xuất gì, và sau đó thực hiện những thay đổi đó”, ông nói.

Sự vắng mặt của EU

Trong cuộc tranh luận về biện pháp đối phó với nguy cơ của vũ khí sinh học được tạo ra bằng Trí tuệ Nhân tạo, có một cảm giác rằng Liên minh châu Âu (EU) đang vắng mặt. Tại cuộc họp tháng năm tại hồ Como, chỉ có một trong 23 nhóm hoặc trường đại học tham dự là Trung tâm An ninh sinh học và Sẵn sàng sinh học của Đan Mạch đến từ khu vực này.

Claire Qureshi, một nhà nghiên cứu an toàn sinh học từ tổ chức Helena của Mỹ, đơn vị tổ chức cuộc họp, cho biết: “Hiện tại, cuộc tranh luận đang được dẫn dắt bởi các quốc gia có công nghệ sinh học và AI tiên tiến nhất, chủ yếu là Mỹ và Anh”.

Liên minh châu Âu cũng thực hiện một sáng kiến – được gọi là “Terror” – để chuẩn bị cho các cuộc tấn công sinh học và hóa học, nhưng trọng tâm của nó là khả năng chống chọi khi có một đợt bùng phát, chứ không phải ngăn chặn một đợt bùng phát từ đầu thông qua việc giới hạn Trí tuệ Nhân tạo.

Tuy nhiên, những nỗ lực của Liên minh châu Âu hay của các quốc gia lớn cần phải được tiến hành một cách thấu đáo và kịp thời – một công việc rõ ràng là “đi dây”, một mặt ngăn ngừa những hệ quả xấu có thể xảy ra, mặt khác lại phải đảm bảo không được làm ảnh hưởng đến sự tiến triển mà AI và sinh học có thể đem lại cho con người.□

Nguyễn Quang dịch

Nguồn: https://sciencebusiness.net/news/ai/scientists-grapple-risk-artificial-intelligence-created-pandemics 


Nguồn tin: Tia Sáng

Share/Save/Bookmark
Từ khóa:

n/a

Đánh giá bài viết
Tổng số điểm của bài viết là: 0 trong 0 đánh giá
Click để đánh giá bài viết
 

Lien he quang cao
Liên hệ quảng cáo
Thống kê truy cập Website
  • Đang truy cập: 12
  • Hôm nay: 4317
  • Tháng hiện tại: 112570
  • Tổng lượt truy cập: 24399301