Năm ngoái, tôi đã xuất bản một bài viết về chủ nghĩa lạc quan công nghệ, trình bày niềm đam mê tổng thể của tôi đối với công nghệ và những lợi ích to lớn mà công nghệ có thể mang lại. Đồng thời, tôi cũng bày tỏ thái độ thận trọng đối với một số vấn đề cụ thể, đặc biệt là về trí tuệ nhân tạo siêu thông minh và những rủi ro hủy diệt mà nó có thể mang lại, hoặc rủi ro khiến con người mất quyền lực một cách không thể đảo ngược.
Ý chính của bài viết là kêu gọi một tư tưởng tăng tốc phòng thủ phi tập trung, dân chủ và khác biệt. Chúng ta nên tăng tốc phát triển công nghệ, nhưng cần chọn lọc tập trung vào những công nghệ có thể tăng cường khả năng phòng thủ chứ không phải phá hoại, và cam kết phân quyền, thay vì tập trung quyền lực vào tay một số ít tinh hoa. Mô hình phòng thủ nên giống như một Thụy Sĩ dân chủ, chứ không phải là các lãnh chúa và lâu đài dưới chế độ phong kiến trung cổ.
Trong năm qua, những ý tưởng này đã trải qua sự phát triển và trưởng thành đáng kể. Tôi đã chia sẻ những ý tưởng này trên nền tảng "80,000 giờ" và nhận được nhiều phản hồi, chủ yếu là tích cực, tất nhiên cũng có một số lời chỉ trích.
Công việc này cũng đã đạt được những tiến bộ đáng kể: lĩnh vực vaccine mã nguồn mở có những bước đột phá; nhận thức về không khí trong nhà lành mạnh ngày càng sâu sắc; "ghi chú cộng đồng" tiếp tục phát huy vai trò tích cực; thị trường dự đoán đã có một năm đột phá như một công cụ thông tin; bằng chứng không kiến thức được áp dụng trong nhận dạng danh tính của chính phủ và lĩnh vực mạng xã hội; các công cụ hình ảnh mã nguồn mở đã đạt được tiến bộ trong lĩnh vực y tế và giao diện não-máy, v.v.
Vào mùa thu năm ngoái, chúng tôi đã tổ chức sự kiện d/acc quan trọng đầu tiên: "Ngày phát hiện d/acc". Sự kiện đã tập hợp các diễn giả từ các lĩnh vực trụ cột khác nhau của d/acc như ( sinh học, vật lý, mạng, phòng thủ thông tin và công nghệ thần kinh ), kéo dài suốt cả ngày. Những người lâu dài gắn bó với các công nghệ này bắt đầu hiểu rõ hơn về công việc của nhau, và những người bên ngoài cũng ngày càng nhận thức rõ hơn về tầm nhìn lớn hơn này: các giá trị thúc đẩy sự phát triển của Ethereum và tiền điện tử có thể mở rộng ra một thế giới rộng lớn hơn.
Ý nghĩa và nội hàm của d/acc
Ý tưởng cốt lõi của d/acc rất đơn giản: phòng thủ phi tập trung, dân chủ và khác biệt. Xây dựng công nghệ có thể thúc đẩy sự cân bằng tấn công-phòng thủ nghiêng về phía phòng thủ, và trong quá trình thực hiện không phụ thuộc vào việc trao thêm quyền lực cho các cơ quan trung ương. Có mối liên hệ nội tại giữa hai khía cạnh này: bất kỳ cấu trúc chính trị nào phi tập trung, dân chủ hoặc tự do, thường phát triển mạnh mẽ khi phòng thủ dễ thực hiện, trong khi gặp phải những thách thức nghiêm trọng khi phòng thủ gặp nhiều khó khăn.
Một cách để hiểu tầm quan trọng của việc cố gắng hiện thực hóa tính phi tập trung, khả năng phòng thủ và tốc độ là so sánh nó với những ý tưởng phát sinh từ việc từ bỏ bất kỳ một trong ba khía cạnh này.
Tăng tốc phi tập trung, nhưng bỏ qua phần "phòng thủ khác biệt": điều này giống như việc trở thành một nhà tăng tốc hiệu quả (e/acc), nhưng đồng thời theo đuổi phi tập trung. Cách tiếp cận này có thể tránh được rủi ro của một nhóm cụ thể áp đặt chế độ độc tài lên nhân loại toàn cầu, nhưng nó không giải quyết được các vấn đề cấu trúc tiềm ẩn: trong một môi trường thuận lợi cho tấn công, luôn tồn tại rủi ro liên tục về thảm họa, hoặc có người sẽ tự định vị mình là người bảo vệ và chiếm giữ địa vị thống trị vĩnh viễn.
Phòng thủ phân biệt được tăng tốc, nhưng bỏ qua "phi tập trung và dân chủ": Việc chấp nhận kiểm soát tập trung để đạt được mục tiêu an ninh luôn hấp dẫn đối với một phần người. Tuy nhiên, có một vấn đề về mức độ của kiểm soát tập trung. Rủi ro của cách tiếp cận này là rất rõ ràng, đó là trung tâm thường trở thành nguồn gốc của rủi ro. Chúng ta đã chứng kiến điều này trong thời gian đại dịch COVID-19.
Phòng thủ phi tập trung, nhưng loại trừ tăng tốc: Đây về cơ bản là cố gắng làm chậm tiến bộ công nghệ hoặc thúc đẩy suy thoái kinh tế. Chiến lược này đối mặt với hai thách thức kép: đầu tiên, sự tăng trưởng công nghệ và kinh tế nhìn chung mang lại lợi ích cực kỳ lớn cho nhân loại, bất kỳ sự chậm trễ nào cũng sẽ gây ra chi phí khó có thể ước lượng; thứ hai, trong một thế giới không phải độc tài, sự trì trệ là không ổn định.
Thông qua d/acc, chúng tôi cam kết đạt được các mục tiêu sau:
Giữ vững nguyên tắc trong bối cảnh thế giới ngày càng bị bộ lạc hóa, chứ không chỉ đơn thuần là xây dựng mọi thứ một cách mù quáng.
Nhận thức rằng sự tiến bộ công nghệ theo cấp số nhân có nghĩa là thế giới sẽ trở nên vô cùng kỳ lạ, và "dấu chân" tổng thể của con người trong vũ trụ chắc chắn sẽ tiếp tục tăng lên. Khả năng của chúng ta trong việc bảo vệ các loài động vật, thực vật và cộng đồng dễ bị tổn thương khỏi tổn hại phải được nâng cao liên tục, và con đường duy nhất là tiến lên phía trước.
Xây dựng công nghệ có thể thực sự bảo vệ chúng ta, chứ không phải dựa trên giả định "người tốt ( hoặc AI tốt ) kiểm soát mọi thứ". Chúng tôi đạt được mục tiêu này bằng cách xây dựng các công cụ hiệu quả hơn trong việc xây dựng và bảo vệ so với việc phá hủy.
Một cách suy nghĩ khác về d/acc là quay về với khung của phong trào Pirate Party ở châu Âu vào cuối những năm 2000: trao quyền. Mục tiêu của chúng tôi là xây dựng một thế giới có thể giữ lại tính năng động của con người, đạt được tự do tiêu cực, tức là tránh sự can thiệp tích cực từ người khác (, dù là công dân bình thường, chính phủ, hay siêu trí tuệ nhân tạo ) vào khả năng định hình số phận của chúng ta, đồng thời đạt được tự do tích cực, tức là đảm bảo chúng ta có kiến thức và tài nguyên để thực hiện khả năng này.
Chiều thứ ba: Phát triển hợp tác giữa sinh tồn và thịnh vượng
Trong bài viết của tôi năm ngoái, d/acc đặc biệt tập trung vào các công nghệ phòng thủ: phòng thủ vật lý, phòng thủ sinh học, phòng thủ mạng và phòng thủ thông tin. Tuy nhiên, phòng thủ phi tập trung đơn thuần không đủ để xây dựng một thế giới vĩ đại: chúng ta còn cần một tầm nhìn tích cực mang tính dự đoán, rõ ràng về những mục tiêu mà con người có thể đạt được sau khi có được sự phi tập trung và an toàn mới.
Trong nhiều lĩnh vực có một mô hình nhất quán, đó là những khoa học, tư tưởng và công cụ có thể giúp chúng ta "sinh tồn" trong một lĩnh vực nào đó, có mối liên hệ chặt chẽ với những khoa học, tư tưởng và công cụ có thể giúp chúng ta "thịnh vượng". Dưới đây là một vài ví dụ cụ thể:
Nhiều nghiên cứu gần đây về COVID-19 tập trung vào sự tồn tại kéo dài của virus trong cơ thể, điều này được xem là một cơ chế then chốt của vấn đề COVID kéo dài. Gần đây, cũng có dấu hiệu cho thấy sự tồn tại kéo dài của virus có thể là yếu tố gây bệnh của bệnh Alzheimer. Nếu quan điểm này đúng, thì việc giải quyết vấn đề sự tồn tại của virus trong tất cả các loại mô có thể là chìa khóa để vượt qua vấn đề lão hóa.
Các công cụ hình ảnh chi phí thấp và vi mô, như những công cụ đang được Openwater phát triển, có tiềm năng mạnh mẽ trong việc điều trị các cục máu đông nhỏ, virus tồn tại lâu dài, ung thư, v.v., đồng thời cũng có thể được ứng dụng trong lĩnh vực giao diện não - máy.
Thúc đẩy xây dựng công cụ xã hội phù hợp với môi trường đối kháng cao như ghi chú cộng đồng ( và công cụ xã hội trong môi trường hợp tác hợp lý như Pol.is ) có ý tưởng rất tương tự.
Thị trường dự đoán có giá trị quan trọng trong cả môi trường hợp tác cao và chống đối cao.
Chứng minh không có kiến thức và các công nghệ tương tự thực hiện tính toán dữ liệu trong khi bảo vệ quyền riêng tư, vừa tăng lượng dữ liệu có thể sử dụng cho các công việc hữu ích như nghiên cứu khoa học, vừa tăng cường bảo vệ quyền riêng tư.
Năng lượng mặt trời và pin có ý nghĩa vô cùng quan trọng trong việc thúc đẩy làn sóng tăng trưởng kinh tế sạch tiếp theo, đồng thời cũng thể hiện xuất sắc trong khả năng phi tập trung và độ bền vật lý.
Ngoài ra, còn tồn tại mối quan hệ phụ thuộc lẫn nhau quan trọng giữa các lĩnh vực khoa học khác nhau:
Giao diện não-máy là một công nghệ phòng chống thông tin và hợp tác quan trọng, vì nó có thể thực hiện việc trao đổi tinh vi hơn về suy nghĩ và ý định của chúng ta. Giao diện não-máy không chỉ là sự kết nối giữa robot và ý thức: nó cũng có thể là sự tương tác giữa ý thức-robot-ý thức.
Nhiều công nghệ sinh học phụ thuộc vào việc chia sẻ thông tin, và trong nhiều trường hợp, mọi người chỉ sẵn lòng chia sẻ thông tin khi họ chắc chắn rằng thông tin chỉ được sử dụng cho các ứng dụng cụ thể. Điều này phụ thuộc vào công nghệ bảo mật ( như chứng minh không biết, mã hóa đồng nhất hoàn toàn, công nghệ làm mờ, v.v. ).
Công nghệ hợp tác có thể được sử dụng để điều phối tài trợ cho bất kỳ lĩnh vực công nghệ nào khác.
Nghịch lý: An toàn AI, thời gian khẩn cấp và khó khăn trong quản lý
Năm ngoái, quan điểm phản đối thuyết phục nhất mà bài viết của tôi nhận được đến từ cộng đồng an toàn AI. Luận điểm của họ là: "Chắc chắn, nếu chúng ta có nửa thế kỷ để phát triển AI mạnh, chúng ta có thể tập trung vào việc xây dựng tất cả những điều hữu ích này. Nhưng thực tế, có vẻ như chúng ta chỉ có ba năm để phát triển AI tổng quát, và sau ba năm nữa để phát triển thành trí tuệ siêu phàm. Do đó, nếu chúng ta không muốn thế giới rơi vào sự hủy diệt hoặc theo cách khác rơi vào tình trạng không thể đảo ngược, chúng ta không thể chỉ đơn thuần tăng tốc phát triển công nghệ hữu ích, mà còn phải làm chậm lại sự phát triển của công nghệ gây hại, điều này có nghĩa là cần có các biện pháp quản lý mạnh mẽ có thể làm phật lòng những người nắm quyền. " Trong bài viết của tôi năm ngoái, ngoài việc mơ hồ kêu gọi không xây dựng hình thức trí tuệ siêu phàm có nguy cơ, tôi thực sự không đưa ra bất kỳ chiến lược cụ thể nào về "giảm tốc độ phát triển công nghệ gây hại". Vì vậy, ở đây, điều cần thiết là phải thảo luận thẳng thắn về vấn đề này: nếu chúng ta đang ở trong một thế giới kém lý tưởng nhất, với rủi ro AI rất cao và thời gian có thể chỉ kéo dài năm năm, tôi sẽ ủng hộ biện pháp quản lý nào?
Lý do giữ thái độ thận trọng đối với quy định mới
Năm ngoái, đề xuất quy định AI chính là dự luật SB-1047 của bang California. SB-1047 yêu cầu các nhà phát triển của các mô hình mạnh nhất (, tức là những mô hình có chi phí đào tạo hơn 100 triệu đô la, hoặc chi phí tinh chỉnh hơn 10 triệu đô la, phải thực hiện một loạt biện pháp kiểm tra an toàn trước khi phát hành. Hơn nữa, nếu các nhà phát triển mô hình AI không đủ cẩn trọng, họ sẽ bị truy cứu trách nhiệm. Nhiều nhà phê bình cho rằng dự luật này "đe dọa mã nguồn mở"; tôi không đồng ý với điều này, vì ngưỡng chi phí có nghĩa là nó chỉ ảnh hưởng đến các mô hình mạnh nhất: thậm chí mô hình Llama3 có thể cũng nằm dưới ngưỡng này. Tuy nhiên, nhìn lại, tôi nghĩ rằng dự luật này có một vấn đề nghiêm trọng hơn: như hầu hết các biện pháp quy định khác, nó đã quá thích ứng với tình hình hiện tại. Mối quan tâm về chi phí đào tạo đã chứng minh sự yếu kém khi đối mặt với công nghệ mới: chi phí đào tạo của mô hình tiên tiến DeepSeek v3 gần đây chỉ là 6 triệu đô la, và trong các mô hình mới như o1, chi phí thường chuyển từ giai đoạn đào tạo sang giai đoạn suy luận.
Những tác nhân có khả năng cao nhất gây ra kịch bản hủy diệt do trí tuệ nhân tạo siêu thông minh.
Trên thực tế, những tác nhân có khả năng chịu trách nhiệm cho kịch bản hủy diệt của siêu trí tuệ AI nhất có thể là quân đội. Như chúng ta đã chứng kiến trong nửa thế kỷ qua về an toàn sinh học ) và những thời kỳ trước đó (, quân đội sẵn sàng thực hiện một số hành động khủng khiếp, và họ rất dễ mắc sai lầm. Ngày nay, sự ứng dụng AI trong lĩnh vực quân sự đang phát triển nhanh chóng ) như trong các ứng dụng ở Ukraine, khu vực Gaza (. Hơn nữa, bất kỳ biện pháp quản lý an toàn nào mà chính phủ thông qua sẽ tự động miễn trừ cho quân đội của quốc gia đó cũng như các công ty hợp tác chặt chẽ với quân đội.
Chiến lược ứng phó
Tuy nhiên, những lập luận này không phải là lý do khiến chúng ta bất lực. Ngược lại, chúng ta có thể coi chúng như một hướng dẫn, cố gắng xây dựng các quy tắc gây ra ít lo ngại nhất.
Chiến lược 1: Trách nhiệm
Nếu hành vi của một người nào đó gây ra thiệt hại có thể bị truy cứu theo pháp luật, họ có thể bị kiện. Điều này không giải quyết được vấn đề rủi ro từ quân đội và những "người hành động vượt lên trên pháp luật" khác, nhưng đây là một phương pháp rất tổng quát, có thể tránh được việc quá khớp, chính vì lý do đó, các nhà kinh tế học có xu hướng theo chủ nghĩa tự do thường ủng hộ cách tiếp cận này.
Các mục tiêu trách nhiệm chính đã được xem xét cho đến nay như sau:
Người dùng: Người sử dụng AI.
Người triển khai: Người trung gian cung cấp dịch vụ AI cho người dùng.
Nhà phát triển: Người xây dựng AI.
Việc đổ lỗi cho người dùng dường như phù hợp nhất với cơ chế khuyến khích. Mặc dù mối liên hệ giữa cách phát triển mô hình và cách sử dụng cuối cùng thường không rõ ràng, nhưng người dùng quyết định cách sử dụng cụ thể của AI. Việc truy cứu trách nhiệm từ người dùng sẽ tạo ra một áp lực mạnh mẽ, thúc đẩy mọi người sử dụng AI theo cách mà tôi cho là đúng: tập trung vào việc xây dựng bộ máy cho tư duy của con người, thay vì tạo ra một cái tôi mới.
Xem bản gốc
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
8 thích
Phần thưởng
8
7
Chia sẻ
Bình luận
0/400
LiquidationTherapist
· 2phút trước
Chẳng qua chỉ là một làn sóng những người lý tưởng hóa công nghệ nữa thôi.
Xem bản gốcTrả lời0
MetaverseHermit
· 18giờ trước
Làm theo kiểu phòng thủ, chỉ cần nằm ngửa là xong.
Xem bản gốcTrả lời0
APY追逐者
· 18giờ trước
Có ích không khi đấu tranh trong tình trạng không có trung tâm?
Xem bản gốcTrả lời0
SocialFiQueen
· 18giờ trước
Nhìn thấu mọi thứ, nói ra nhưng không nói ra.
Xem bản gốcTrả lời0
OfflineValidator
· 18giờ trước
Chào bạn, hiểu kỹ thuật không khó, điều khó là hiểu những thứ đứng sau công nghệ.
d/acc một năm: Sự tiến hóa và thách thức của khái niệm tăng tốc phòng thủ
d/acc: Nhìn lại và triển vọng sau một năm
Năm ngoái, tôi đã xuất bản một bài viết về chủ nghĩa lạc quan công nghệ, trình bày niềm đam mê tổng thể của tôi đối với công nghệ và những lợi ích to lớn mà công nghệ có thể mang lại. Đồng thời, tôi cũng bày tỏ thái độ thận trọng đối với một số vấn đề cụ thể, đặc biệt là về trí tuệ nhân tạo siêu thông minh và những rủi ro hủy diệt mà nó có thể mang lại, hoặc rủi ro khiến con người mất quyền lực một cách không thể đảo ngược.
Ý chính của bài viết là kêu gọi một tư tưởng tăng tốc phòng thủ phi tập trung, dân chủ và khác biệt. Chúng ta nên tăng tốc phát triển công nghệ, nhưng cần chọn lọc tập trung vào những công nghệ có thể tăng cường khả năng phòng thủ chứ không phải phá hoại, và cam kết phân quyền, thay vì tập trung quyền lực vào tay một số ít tinh hoa. Mô hình phòng thủ nên giống như một Thụy Sĩ dân chủ, chứ không phải là các lãnh chúa và lâu đài dưới chế độ phong kiến trung cổ.
Trong năm qua, những ý tưởng này đã trải qua sự phát triển và trưởng thành đáng kể. Tôi đã chia sẻ những ý tưởng này trên nền tảng "80,000 giờ" và nhận được nhiều phản hồi, chủ yếu là tích cực, tất nhiên cũng có một số lời chỉ trích.
Công việc này cũng đã đạt được những tiến bộ đáng kể: lĩnh vực vaccine mã nguồn mở có những bước đột phá; nhận thức về không khí trong nhà lành mạnh ngày càng sâu sắc; "ghi chú cộng đồng" tiếp tục phát huy vai trò tích cực; thị trường dự đoán đã có một năm đột phá như một công cụ thông tin; bằng chứng không kiến thức được áp dụng trong nhận dạng danh tính của chính phủ và lĩnh vực mạng xã hội; các công cụ hình ảnh mã nguồn mở đã đạt được tiến bộ trong lĩnh vực y tế và giao diện não-máy, v.v.
Vào mùa thu năm ngoái, chúng tôi đã tổ chức sự kiện d/acc quan trọng đầu tiên: "Ngày phát hiện d/acc". Sự kiện đã tập hợp các diễn giả từ các lĩnh vực trụ cột khác nhau của d/acc như ( sinh học, vật lý, mạng, phòng thủ thông tin và công nghệ thần kinh ), kéo dài suốt cả ngày. Những người lâu dài gắn bó với các công nghệ này bắt đầu hiểu rõ hơn về công việc của nhau, và những người bên ngoài cũng ngày càng nhận thức rõ hơn về tầm nhìn lớn hơn này: các giá trị thúc đẩy sự phát triển của Ethereum và tiền điện tử có thể mở rộng ra một thế giới rộng lớn hơn.
Ý nghĩa và nội hàm của d/acc
Ý tưởng cốt lõi của d/acc rất đơn giản: phòng thủ phi tập trung, dân chủ và khác biệt. Xây dựng công nghệ có thể thúc đẩy sự cân bằng tấn công-phòng thủ nghiêng về phía phòng thủ, và trong quá trình thực hiện không phụ thuộc vào việc trao thêm quyền lực cho các cơ quan trung ương. Có mối liên hệ nội tại giữa hai khía cạnh này: bất kỳ cấu trúc chính trị nào phi tập trung, dân chủ hoặc tự do, thường phát triển mạnh mẽ khi phòng thủ dễ thực hiện, trong khi gặp phải những thách thức nghiêm trọng khi phòng thủ gặp nhiều khó khăn.
Một cách để hiểu tầm quan trọng của việc cố gắng hiện thực hóa tính phi tập trung, khả năng phòng thủ và tốc độ là so sánh nó với những ý tưởng phát sinh từ việc từ bỏ bất kỳ một trong ba khía cạnh này.
Tăng tốc phi tập trung, nhưng bỏ qua phần "phòng thủ khác biệt": điều này giống như việc trở thành một nhà tăng tốc hiệu quả (e/acc), nhưng đồng thời theo đuổi phi tập trung. Cách tiếp cận này có thể tránh được rủi ro của một nhóm cụ thể áp đặt chế độ độc tài lên nhân loại toàn cầu, nhưng nó không giải quyết được các vấn đề cấu trúc tiềm ẩn: trong một môi trường thuận lợi cho tấn công, luôn tồn tại rủi ro liên tục về thảm họa, hoặc có người sẽ tự định vị mình là người bảo vệ và chiếm giữ địa vị thống trị vĩnh viễn.
Phòng thủ phân biệt được tăng tốc, nhưng bỏ qua "phi tập trung và dân chủ": Việc chấp nhận kiểm soát tập trung để đạt được mục tiêu an ninh luôn hấp dẫn đối với một phần người. Tuy nhiên, có một vấn đề về mức độ của kiểm soát tập trung. Rủi ro của cách tiếp cận này là rất rõ ràng, đó là trung tâm thường trở thành nguồn gốc của rủi ro. Chúng ta đã chứng kiến điều này trong thời gian đại dịch COVID-19.
Phòng thủ phi tập trung, nhưng loại trừ tăng tốc: Đây về cơ bản là cố gắng làm chậm tiến bộ công nghệ hoặc thúc đẩy suy thoái kinh tế. Chiến lược này đối mặt với hai thách thức kép: đầu tiên, sự tăng trưởng công nghệ và kinh tế nhìn chung mang lại lợi ích cực kỳ lớn cho nhân loại, bất kỳ sự chậm trễ nào cũng sẽ gây ra chi phí khó có thể ước lượng; thứ hai, trong một thế giới không phải độc tài, sự trì trệ là không ổn định.
Thông qua d/acc, chúng tôi cam kết đạt được các mục tiêu sau:
Một cách suy nghĩ khác về d/acc là quay về với khung của phong trào Pirate Party ở châu Âu vào cuối những năm 2000: trao quyền. Mục tiêu của chúng tôi là xây dựng một thế giới có thể giữ lại tính năng động của con người, đạt được tự do tiêu cực, tức là tránh sự can thiệp tích cực từ người khác (, dù là công dân bình thường, chính phủ, hay siêu trí tuệ nhân tạo ) vào khả năng định hình số phận của chúng ta, đồng thời đạt được tự do tích cực, tức là đảm bảo chúng ta có kiến thức và tài nguyên để thực hiện khả năng này.
Chiều thứ ba: Phát triển hợp tác giữa sinh tồn và thịnh vượng
Trong bài viết của tôi năm ngoái, d/acc đặc biệt tập trung vào các công nghệ phòng thủ: phòng thủ vật lý, phòng thủ sinh học, phòng thủ mạng và phòng thủ thông tin. Tuy nhiên, phòng thủ phi tập trung đơn thuần không đủ để xây dựng một thế giới vĩ đại: chúng ta còn cần một tầm nhìn tích cực mang tính dự đoán, rõ ràng về những mục tiêu mà con người có thể đạt được sau khi có được sự phi tập trung và an toàn mới.
Trong nhiều lĩnh vực có một mô hình nhất quán, đó là những khoa học, tư tưởng và công cụ có thể giúp chúng ta "sinh tồn" trong một lĩnh vực nào đó, có mối liên hệ chặt chẽ với những khoa học, tư tưởng và công cụ có thể giúp chúng ta "thịnh vượng". Dưới đây là một vài ví dụ cụ thể:
Nhiều nghiên cứu gần đây về COVID-19 tập trung vào sự tồn tại kéo dài của virus trong cơ thể, điều này được xem là một cơ chế then chốt của vấn đề COVID kéo dài. Gần đây, cũng có dấu hiệu cho thấy sự tồn tại kéo dài của virus có thể là yếu tố gây bệnh của bệnh Alzheimer. Nếu quan điểm này đúng, thì việc giải quyết vấn đề sự tồn tại của virus trong tất cả các loại mô có thể là chìa khóa để vượt qua vấn đề lão hóa.
Các công cụ hình ảnh chi phí thấp và vi mô, như những công cụ đang được Openwater phát triển, có tiềm năng mạnh mẽ trong việc điều trị các cục máu đông nhỏ, virus tồn tại lâu dài, ung thư, v.v., đồng thời cũng có thể được ứng dụng trong lĩnh vực giao diện não - máy.
Thúc đẩy xây dựng công cụ xã hội phù hợp với môi trường đối kháng cao như ghi chú cộng đồng ( và công cụ xã hội trong môi trường hợp tác hợp lý như Pol.is ) có ý tưởng rất tương tự.
Thị trường dự đoán có giá trị quan trọng trong cả môi trường hợp tác cao và chống đối cao.
Chứng minh không có kiến thức và các công nghệ tương tự thực hiện tính toán dữ liệu trong khi bảo vệ quyền riêng tư, vừa tăng lượng dữ liệu có thể sử dụng cho các công việc hữu ích như nghiên cứu khoa học, vừa tăng cường bảo vệ quyền riêng tư.
Năng lượng mặt trời và pin có ý nghĩa vô cùng quan trọng trong việc thúc đẩy làn sóng tăng trưởng kinh tế sạch tiếp theo, đồng thời cũng thể hiện xuất sắc trong khả năng phi tập trung và độ bền vật lý.
Ngoài ra, còn tồn tại mối quan hệ phụ thuộc lẫn nhau quan trọng giữa các lĩnh vực khoa học khác nhau:
Giao diện não-máy là một công nghệ phòng chống thông tin và hợp tác quan trọng, vì nó có thể thực hiện việc trao đổi tinh vi hơn về suy nghĩ và ý định của chúng ta. Giao diện não-máy không chỉ là sự kết nối giữa robot và ý thức: nó cũng có thể là sự tương tác giữa ý thức-robot-ý thức.
Nhiều công nghệ sinh học phụ thuộc vào việc chia sẻ thông tin, và trong nhiều trường hợp, mọi người chỉ sẵn lòng chia sẻ thông tin khi họ chắc chắn rằng thông tin chỉ được sử dụng cho các ứng dụng cụ thể. Điều này phụ thuộc vào công nghệ bảo mật ( như chứng minh không biết, mã hóa đồng nhất hoàn toàn, công nghệ làm mờ, v.v. ).
Công nghệ hợp tác có thể được sử dụng để điều phối tài trợ cho bất kỳ lĩnh vực công nghệ nào khác.
Nghịch lý: An toàn AI, thời gian khẩn cấp và khó khăn trong quản lý
Năm ngoái, quan điểm phản đối thuyết phục nhất mà bài viết của tôi nhận được đến từ cộng đồng an toàn AI. Luận điểm của họ là: "Chắc chắn, nếu chúng ta có nửa thế kỷ để phát triển AI mạnh, chúng ta có thể tập trung vào việc xây dựng tất cả những điều hữu ích này. Nhưng thực tế, có vẻ như chúng ta chỉ có ba năm để phát triển AI tổng quát, và sau ba năm nữa để phát triển thành trí tuệ siêu phàm. Do đó, nếu chúng ta không muốn thế giới rơi vào sự hủy diệt hoặc theo cách khác rơi vào tình trạng không thể đảo ngược, chúng ta không thể chỉ đơn thuần tăng tốc phát triển công nghệ hữu ích, mà còn phải làm chậm lại sự phát triển của công nghệ gây hại, điều này có nghĩa là cần có các biện pháp quản lý mạnh mẽ có thể làm phật lòng những người nắm quyền. " Trong bài viết của tôi năm ngoái, ngoài việc mơ hồ kêu gọi không xây dựng hình thức trí tuệ siêu phàm có nguy cơ, tôi thực sự không đưa ra bất kỳ chiến lược cụ thể nào về "giảm tốc độ phát triển công nghệ gây hại". Vì vậy, ở đây, điều cần thiết là phải thảo luận thẳng thắn về vấn đề này: nếu chúng ta đang ở trong một thế giới kém lý tưởng nhất, với rủi ro AI rất cao và thời gian có thể chỉ kéo dài năm năm, tôi sẽ ủng hộ biện pháp quản lý nào?
Lý do giữ thái độ thận trọng đối với quy định mới
Năm ngoái, đề xuất quy định AI chính là dự luật SB-1047 của bang California. SB-1047 yêu cầu các nhà phát triển của các mô hình mạnh nhất (, tức là những mô hình có chi phí đào tạo hơn 100 triệu đô la, hoặc chi phí tinh chỉnh hơn 10 triệu đô la, phải thực hiện một loạt biện pháp kiểm tra an toàn trước khi phát hành. Hơn nữa, nếu các nhà phát triển mô hình AI không đủ cẩn trọng, họ sẽ bị truy cứu trách nhiệm. Nhiều nhà phê bình cho rằng dự luật này "đe dọa mã nguồn mở"; tôi không đồng ý với điều này, vì ngưỡng chi phí có nghĩa là nó chỉ ảnh hưởng đến các mô hình mạnh nhất: thậm chí mô hình Llama3 có thể cũng nằm dưới ngưỡng này. Tuy nhiên, nhìn lại, tôi nghĩ rằng dự luật này có một vấn đề nghiêm trọng hơn: như hầu hết các biện pháp quy định khác, nó đã quá thích ứng với tình hình hiện tại. Mối quan tâm về chi phí đào tạo đã chứng minh sự yếu kém khi đối mặt với công nghệ mới: chi phí đào tạo của mô hình tiên tiến DeepSeek v3 gần đây chỉ là 6 triệu đô la, và trong các mô hình mới như o1, chi phí thường chuyển từ giai đoạn đào tạo sang giai đoạn suy luận.
Những tác nhân có khả năng cao nhất gây ra kịch bản hủy diệt do trí tuệ nhân tạo siêu thông minh.
Trên thực tế, những tác nhân có khả năng chịu trách nhiệm cho kịch bản hủy diệt của siêu trí tuệ AI nhất có thể là quân đội. Như chúng ta đã chứng kiến trong nửa thế kỷ qua về an toàn sinh học ) và những thời kỳ trước đó (, quân đội sẵn sàng thực hiện một số hành động khủng khiếp, và họ rất dễ mắc sai lầm. Ngày nay, sự ứng dụng AI trong lĩnh vực quân sự đang phát triển nhanh chóng ) như trong các ứng dụng ở Ukraine, khu vực Gaza (. Hơn nữa, bất kỳ biện pháp quản lý an toàn nào mà chính phủ thông qua sẽ tự động miễn trừ cho quân đội của quốc gia đó cũng như các công ty hợp tác chặt chẽ với quân đội.
Chiến lược ứng phó
Tuy nhiên, những lập luận này không phải là lý do khiến chúng ta bất lực. Ngược lại, chúng ta có thể coi chúng như một hướng dẫn, cố gắng xây dựng các quy tắc gây ra ít lo ngại nhất.
Chiến lược 1: Trách nhiệm
Nếu hành vi của một người nào đó gây ra thiệt hại có thể bị truy cứu theo pháp luật, họ có thể bị kiện. Điều này không giải quyết được vấn đề rủi ro từ quân đội và những "người hành động vượt lên trên pháp luật" khác, nhưng đây là một phương pháp rất tổng quát, có thể tránh được việc quá khớp, chính vì lý do đó, các nhà kinh tế học có xu hướng theo chủ nghĩa tự do thường ủng hộ cách tiếp cận này.
Các mục tiêu trách nhiệm chính đã được xem xét cho đến nay như sau:
Việc đổ lỗi cho người dùng dường như phù hợp nhất với cơ chế khuyến khích. Mặc dù mối liên hệ giữa cách phát triển mô hình và cách sử dụng cuối cùng thường không rõ ràng, nhưng người dùng quyết định cách sử dụng cụ thể của AI. Việc truy cứu trách nhiệm từ người dùng sẽ tạo ra một áp lực mạnh mẽ, thúc đẩy mọi người sử dụng AI theo cách mà tôi cho là đúng: tập trung vào việc xây dựng bộ máy cho tư duy của con người, thay vì tạo ra một cái tôi mới.