Dự án Web3 về khái niệm AI trở thành mục tiêu thu hút vốn trên thị trường sơ cấp và thứ cấp.
Cơ hội của Web3 trong ngành AI thể hiện ở: sử dụng phần thưởng phân phối để điều phối nguồn cung tiềm năng trong đuôi dài, xuyên suốt dữ liệu, lưu trữ và tính toán; đồng thời, xây dựng một mô hình mã nguồn mở cũng như thị trường phi tập trung cho AI Agent.
AI trong ngành Web3 chủ yếu được ứng dụng trong tài chính trên chuỗi ( thanh toán tiền mã hóa, giao dịch, phân tích dữ liệu ) và hỗ trợ phát triển.
Tính hữu dụng của AI+Web3 được thể hiện qua sự bổ sung lẫn nhau: Web3 hy vọng có thể chống lại sự tập trung của AI, trong khi AI hy vọng giúp Web3 phá vỡ giới hạn.
Giới thiệu
Trong hai năm qua, sự phát triển của AI như được nhấn nút tăng tốc, hiệu ứng cánh bướm do Chatgpt khơi mào không chỉ mở ra một thế giới mới của trí tuệ nhân tạo sinh sinh, mà còn tạo ra một làn sóng mạnh mẽ ở bờ bên kia của Web3.
Dưới sự hỗ trợ của khái niệm AI, việc huy động vốn trong thị trường tiền điện tử chậm lại đã có sự cải thiện rõ rệt. Chỉ trong nửa đầu năm 2024, đã có tổng cộng 64 dự án Web3+AI hoàn thành việc huy động vốn, trong đó hệ điều hành dựa trên trí tuệ nhân tạo Zyber365 đã đạt mức huy động vốn tối đa 100 triệu USD trong vòng A.
Thị trường thứ cấp trở nên sôi động hơn, dữ liệu từ các trang web tổng hợp tiền điện tử cho thấy, chỉ trong hơn một năm, tổng giá trị thị trường của lĩnh vực AI đã đạt 48,5 tỷ USD, khối lượng giao dịch trong 24 giờ gần 8,6 tỷ USD; những tiến bộ công nghệ AI chính thống mang lại lợi ích rõ rệt, sau khi mô hình chuyển văn bản thành video Sora của OpenAI được phát hành, giá trung bình của lĩnh vực AI đã tăng 151%; hiệu ứng AI cũng lan tỏa đến một trong những lĩnh vực thu hút tiền điện tử là Meme: MemeCoin đầu tiên có khái niệm AI Agent------GOAT nhanh chóng nổi tiếng và đạt được giá trị 1,4 tỷ USD, thành công kích thích cơn sốt AI Meme.
Nghiên cứu và chủ đề về AI+Web3 cũng đang rất sôi nổi, từ AI+Depin đến AI Memecoin rồi đến các AI Agent và AI DAO hiện tại, cảm xúc FOMO đã không theo kịp tốc độ luân chuyển của các câu chuyện mới.
AI+Web3, cụm thuật ngữ đầy tiền nóng, cơ hội và ảo tưởng tương lai này, không tránh khỏi bị coi như một cuộc hôn nhân được vốn đầu tư sắp đặt, chúng ta dường như rất khó phân biệt dưới lớp áo choàng lộng lẫy này, rốt cuộc đây là sân chơi của những kẻ đầu cơ, hay là đêm trước của sự bùng nổ bình minh?
Để trả lời câu hỏi này, một suy nghĩ then chốt cho cả hai bên là, liệu có thể trở nên tốt hơn nhờ có nhau không? Liệu có thể hưởng lợi từ mô hình của nhau không? Trong bài viết này, chúng tôi cũng cố gắng đứng trên vai những người đi trước để xem xét bức tranh này: Web3 có thể đóng vai trò gì trong từng giai đoạn của công nghệ AI, và AI có thể mang lại sự sống mới cho Web3 như thế nào?
Phần 1: Cơ hội nào cho Web3 dưới AI stack?
Trước khi mở rộng chủ đề này, chúng ta cần hiểu về công nghệ của mô hình AI lớn.
Diễn đạt toàn bộ quá trình bằng ngôn ngữ dễ hiểu hơn: "Mô hình lớn" giống như bộ não của con người, ở giai đoạn đầu, bộ não này thuộc về một em bé vừa mới chào đời, cần quan sát và tiếp nhận lượng thông tin khổng lồ từ thế giới xung quanh để hiểu thế giới này, đó là giai đoạn "thu thập" dữ liệu; do máy tính không có các giác quan như thị giác, thính giác của con người, trước khi đào tạo, lượng thông tin lớn không được gán nhãn từ bên ngoài cần được "tiền xử lý" để chuyển đổi thành định dạng thông tin mà máy tính có thể hiểu và sử dụng.
Sau khi nhập dữ liệu, AI thông qua "đào tạo" đã xây dựng một mô hình có khả năng hiểu và dự đoán, điều này có thể được coi là quá trình mà một đứa trẻ dần dần hiểu và học hỏi từ thế giới xung quanh. Các tham số của mô hình giống như khả năng ngôn ngữ của đứa trẻ đang được điều chỉnh liên tục trong quá trình học tập. Khi nội dung học bắt đầu được phân chia theo chuyên ngành, hoặc khi giao tiếp với người khác nhận được phản hồi và được điều chỉnh, thì sẽ bước vào giai đoạn "tinh chỉnh" của mô hình lớn.
Trẻ em dần lớn lên và học nói, sau đó có thể hiểu ý nghĩa và bày tỏ cảm xúc cũng như suy nghĩ của mình trong các cuộc đối thoại mới. Giai đoạn này tương tự như "suy luận" của mô hình AI lớn, mô hình có khả năng dự đoán và phân tích các đầu vào ngôn ngữ và văn bản mới. Trẻ sơ sinh sử dụng khả năng ngôn ngữ để diễn tả cảm xúc, mô tả đồ vật và giải quyết các vấn đề khác nhau, điều này cũng tương tự như việc mô hình AI lớn được áp dụng vào các nhiệm vụ cụ thể sau khi hoàn thành quá trình huấn luyện và đưa vào sử dụng, chẳng hạn như phân loại hình ảnh, nhận diện giọng nói, v.v.
AI Agent thì gần hơn với hình thức tiếp theo của mô hình lớn ------ có khả năng thực hiện nhiệm vụ độc lập và theo đuổi mục tiêu phức tạp, không chỉ có khả năng suy nghĩ mà còn có thể ghi nhớ, lập kế hoạch và có khả năng sử dụng công cụ để tương tác với thế giới.
Hiện tại, nhằm giải quyết những điểm đau của AI trong các ngăn xếp khác nhau, Web3 hiện đã hình thành một hệ sinh thái đa tầng, kết nối lẫn nhau, bao gồm các giai đoạn khác nhau của quy trình mô hình AI.
Một, Tầng cơ sở: Airbnb về sức mạnh tính toán và dữ liệu
sức mạnh tính toán
Hiện tại, một trong những chi phí cao nhất của AI là sức mạnh tính toán và năng lượng cần thiết để đào tạo mô hình và mô hình suy diễn.
Một ví dụ là, LLAMA3 của Meta cần 16.000 GPU H100 do NVIDIA sản xuất(, đây là một đơn vị xử lý đồ họa hàng đầu được thiết kế đặc biệt cho trí tuệ nhân tạo và các khối lượng công việc tính toán hiệu suất cao. ) Mất 30 ngày để hoàn thành việc đào tạo. Giá của phiên bản 80GB dao động từ 30.000 đến 40.000 đô la, điều này cần phải đầu tư 400-700 triệu đô la vào phần cứng tính toán( GPU + chip mạng), trong khi việc đào tạo hàng tháng cần tiêu tốn 1,6 tỷ kilowatt giờ, chi phí năng lượng gần 20 triệu đô la mỗi tháng.
Đối với việc giải nén sức mạnh tính toán AI, đây cũng chính là lĩnh vực giao thoa đầu tiên giữa Web3 và AI ------ DePin( mạng lưới cơ sở hạ tầng vật lý phi tập trung) hiện tại, một trang web dữ liệu đã trưng bày hơn 1400 dự án, trong đó các dự án đại diện cho việc chia sẻ sức mạnh GPU bao gồm io.net, Aethir, Akash, Render Network và nhiều dự án khác.
Logic chính của nó là: nền tảng cho phép cá nhân hoặc thực thể sở hữu tài nguyên GPU nhàn rỗi đóng góp khả năng tính toán của họ theo cách phi tập trung mà không cần giấy phép, thông qua một thị trường trực tuyến cho người mua và người bán tương tự như Uber hoặc Airbnb, tăng cường tỷ lệ sử dụng tài nguyên GPU chưa được tận dụng đầy đủ, người dùng cuối do đó cũng nhận được tài nguyên tính toán hiệu quả với chi phí thấp hơn; đồng thời, cơ chế đặt cọc cũng đảm bảo rằng nếu xuất hiện vi phạm cơ chế kiểm soát chất lượng hoặc ngắt mạng, các nhà cung cấp tài nguyên sẽ phải chịu hình phạt tương ứng.
Đặc điểm của nó là:
Tập hợp tài nguyên GPU nhàn rỗi: Các nhà cung cấp chủ yếu là các trung tâm dữ liệu độc lập nhỏ và vừa, các nhà khai thác mỏ tiền điện tử và các tài nguyên tính toán dư thừa, phần cứng khai thác sử dụng cơ chế đồng thuận PoS, như máy khai thác FileCoin và ETH. Hiện tại, cũng có những dự án đang nỗ lực khởi động các thiết bị có ngưỡng tham gia thấp hơn, như exolab sử dụng MacBook, iPhone, iPad và các thiết bị địa phương khác để thiết lập mạng lưới tính toán cho việc suy diễn mô hình lớn.
Đối mặt với thị trường dài đuôi của sức mạnh AI:
a. "Về mặt công nghệ", thị trường sức mạnh phi tập trung phù hợp hơn với các bước suy luận. Việc đào tạo phụ thuộc nhiều hơn vào khả năng xử lý dữ liệu do GPU quy mô siêu lớn mang lại, trong khi suy luận yêu cầu hiệu suất tính toán GPU tương đối thấp, như Aethir tập trung vào công việc kết xuất độ trễ thấp và ứng dụng suy luận AI.
b. "Đối với phía cầu" thì các bên có nhu cầu tính toán nhỏ không đào tạo riêng mô hình lớn của mình, mà chỉ chọn tối ưu hóa, tinh chỉnh xung quanh một số mô hình lớn hàng đầu, và những tình huống này đều tự nhiên phù hợp với nguồn lực tính toán nhàn rỗi phân tán.
Quyền sở hữu phi tập trung: Ý nghĩa công nghệ của blockchain là chủ sở hữu tài nguyên luôn giữ quyền kiểm soát đối với tài nguyên, điều chỉnh linh hoạt theo nhu cầu và đồng thời thu được lợi nhuận.
Dữ liệu
Dữ liệu là nền tảng của AI. Nếu không có dữ liệu, việc tính toán giống như bèo trôi, hoàn toàn vô nghĩa, và mối quan hệ giữa dữ liệu và mô hình giống như câu tục ngữ "Garbage in, Garbage out", số lượng dữ liệu và chất lượng đầu vào quyết định chất lượng đầu ra cuối cùng của mô hình. Đối với việc đào tạo mô hình AI hiện tại, dữ liệu quyết định khả năng ngôn ngữ, khả năng hiểu biết, thậm chí là quan điểm và biểu hiện nhân văn của mô hình. Hiện nay, những khó khăn về nhu cầu dữ liệu của AI chủ yếu tập trung vào bốn khía cạnh sau:
Cơn khát dữ liệu: Việc huấn luyện mô hình AI phụ thuộc vào lượng dữ liệu đầu vào khổng lồ. Tài liệu công khai cho thấy, OpenAI đã huấn luyện GPT-4 với số lượng tham số lên đến hàng nghìn tỷ.
Chất lượng dữ liệu: Với sự kết hợp của AI và các ngành công nghiệp, tính kịp thời của dữ liệu, tính đa dạng của dữ liệu, tính chuyên môn của dữ liệu theo lĩnh vực, và việc tiếp nhận các nguồn dữ liệu mới nổi như cảm xúc từ mạng xã hội đã đặt ra những yêu cầu mới đối với chất lượng của nó.
Vấn đề về quyền riêng tư và tuân thủ: Hiện nay, các quốc gia và doanh nghiệp đang dần nhận ra tầm quan trọng của các bộ dữ liệu chất lượng, và đang áp đặt các hạn chế đối với việc thu thập dữ liệu.
Chi phí xử lý dữ liệu cao: Khối lượng dữ liệu lớn, quy trình xử lý phức tạp. Tài liệu công khai cho thấy, hơn 30% chi phí nghiên cứu và phát triển của các công ty AI được sử dụng cho việc thu thập và xử lý dữ liệu cơ bản.
Hiện tại, giải pháp web3 được thể hiện ở bốn khía cạnh sau:
Thu thập dữ liệu: Việc cung cấp miễn phí dữ liệu từ thế giới thực đang nhanh chóng cạn kiệt, chi phí mà các công ty AI phải trả cho dữ liệu đang tăng lên theo từng năm. Nhưng đồng thời, chi phí này không được trả lại cho những người đóng góp thực sự của dữ liệu, các nền tảng hoàn toàn hưởng lợi từ giá trị mà dữ liệu mang lại, như một nền tảng đã đạt tổng doanh thu 203 triệu đô la Mỹ thông qua hợp đồng cấp phép dữ liệu với các công ty AI.
Để những người dùng thực sự đóng góp cũng tham gia vào việc tạo ra giá trị từ dữ liệu, cũng như thông qua mạng lưới phân tán và cơ chế khuyến khích, theo cách tiết kiệm chi phí để có được dữ liệu cá nhân hóa và có giá trị hơn từ người dùng, đó là tầm nhìn của Web3.
Như Grass là một lớp dữ liệu và mạng phi tập trung, người dùng có thể chạy nút Grass, đóng góp băng thông nhàn rỗi và lưu lượng trung gian để thu thập dữ liệu thời gian thực từ toàn bộ internet và nhận phần thưởng bằng token.
Vana đã giới thiệu một khái niệm độc đáo về bể thanh khoản dữ liệu (DLP), cho phép người dùng tải lên dữ liệu cá nhân của họ ( như lịch sử mua sắm, thói quen duyệt web, hoạt động trên mạng xã hội, v.v. ) vào DLP cụ thể và linh hoạt lựa chọn xem có cho phép các bên thứ ba cụ thể sử dụng những dữ liệu này hay không;
Trong PublicAI, người dùng có thể sử dụng #AI或#Web3 làm nhãn phân loại trên X và @PublicAI để thực hiện việc thu thập dữ liệu.
Tiền xử lý dữ liệu: Trong quá trình xử lý dữ liệu của AI, do dữ liệu thu thập thường ồn ào và chứa lỗi, nên trước khi đào tạo mô hình, cần phải làm sạch và chuyển đổi nó thành định dạng có thể sử dụng, bao gồm các nhiệm vụ lặp đi lặp lại như chuẩn hóa, lọc và xử lý giá trị thiếu. Giai đoạn này là một trong số ít các bước thủ công trong ngành AI, đã phát sinh ra ngành công nghiệp người gán nhãn dữ liệu, và khi yêu cầu về chất lượng dữ liệu của mô hình ngày càng cao, tiêu chuẩn cho người gán nhãn dữ liệu cũng tăng lên, và nhiệm vụ này tự nhiên phù hợp với cơ chế khuyến khích phi tập trung của Web3.
Hiện tại, Grass và OpenLayer đều đang xem xét việc tham gia vào giai đoạn quan trọng là gán nhãn dữ liệu.
Synesis đã đưa ra khái niệm "Train2earn", nhấn mạnh chất lượng dữ liệu, người dùng có thể nhận được phần thưởng bằng cách cung cấp dữ liệu được gán nhãn, chú thích hoặc các hình thức đầu vào khác.
Dự án đánh dấu dữ liệu Sapien đã gamify nhiệm vụ đánh dấu, và cho phép người dùng đặt cược điểm để kiếm thêm điểm.
Quyền riêng tư và an toàn dữ liệu: Cần làm rõ rằng quyền riêng tư và an toàn dữ liệu là hai khái niệm khác nhau. Quyền riêng tư dữ liệu liên quan đến việc xử lý dữ liệu nhạy cảm, trong khi an toàn dữ liệu bảo vệ thông tin dữ liệu khỏi việc truy cập, phá hoại và đánh cắp trái phép. Do đó, lợi thế công nghệ quyền riêng tư Web3 và các tình huống ứng dụng tiềm năng thể hiện ở hai khía cạnh: ( Đào tạo dữ liệu nhạy cảm; ) Hợp tác dữ liệu: Nhiều chủ sở hữu dữ liệu có thể cùng nhau tham gia đào tạo AI mà không cần chia sẻ dữ liệu gốc của họ.
Các công nghệ bảo mật trong Web3 hiện nay bao gồm:
Môi trường thực thi tin cậy ( TEE ), chẳng hạn như Super Protocol;
Mã hóa đồng nhất hoàn toàn ( FHE ), ví dụ như BasedAI, Fhenix.io hoặc Inco Network;
Công nghệ zero-knowledge ( zk ), như giao thức Reclaim sử dụng công nghệ zkTLS, tạo ra bằng chứng zero-knowledge cho lưu lượng HTTPS, cho phép người dùng an toàn nhập dữ liệu hoạt động, danh tiếng và danh tính từ các trang web bên ngoài mà không cần tiết lộ thông tin nhạy cảm.
Tuy nhiên, lĩnh vực này hiện vẫn ở giai đoạn đầu, hầu hết các dự án vẫn đang trong quá trình khám phá, hiện tại một khó khăn là chi phí tính toán quá cao, một số ví dụ là:
Khung zkML EZKL cần khoảng 80 phút để tạo ra một chứng nhận cho mô hình 1M-nanoGPT.
Theo dữ liệu từ Modulus Labs, chi phí của zkML cao hơn 1000 lần so với tính toán thuần túy.
Lưu trữ dữ liệu: Có được dữ liệu sau đó, cần một nơi để lưu trữ dữ liệu trên chuỗi, cũng như LLM được tạo ra từ dữ liệu đó. Với vấn đề khả dụng dữ liệu (DA) làm trung tâm, trước khi nâng cấp Danksharding của Ethereum, thông lượng của nó là 0.08MB. Trong khi đó, việc đào tạo mô hình AI và suy diễn theo thời gian thực thường cần từ 50 đến 100GB thông lượng dữ liệu mỗi giây. Sự chênh lệch về quy mô này khiến các giải pháp trên chuỗi hiện có gặp khó khăn khi đối mặt.
Xem bản gốc
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
9 thích
Phần thưởng
9
6
Chia sẻ
Bình luận
0/400
TokenomicsTinfoilHat
· 10giờ trước
Cuốn đến không còn biên giới.
Xem bản gốcTrả lời0
DataBartender
· 10giờ trước
Lại đến vẽ BTC rồi
Xem bản gốcTrả lời0
0xSherlock
· 10giờ trước
Chán quá... mọi người đều đang thổi phồng khái niệm.
Xem bản gốcTrả lời0
PhantomMiner
· 10giờ trước
Lại vẽ bánh nữa, ai nhận đây?
Xem bản gốcTrả lời0
LiquidatedTwice
· 10giờ trước
Ôi trời ơi, đây chẳng phải là sự thao túng mẫu sao?
Xu hướng hợp nhất AI+Web3: Khả năng tính toán dữ liệu Phi tập trung trở thành trọng tâm
AI+Web3: Tháp và Quảng trường
TL;DR
Dự án Web3 về khái niệm AI trở thành mục tiêu thu hút vốn trên thị trường sơ cấp và thứ cấp.
Cơ hội của Web3 trong ngành AI thể hiện ở: sử dụng phần thưởng phân phối để điều phối nguồn cung tiềm năng trong đuôi dài, xuyên suốt dữ liệu, lưu trữ và tính toán; đồng thời, xây dựng một mô hình mã nguồn mở cũng như thị trường phi tập trung cho AI Agent.
AI trong ngành Web3 chủ yếu được ứng dụng trong tài chính trên chuỗi ( thanh toán tiền mã hóa, giao dịch, phân tích dữ liệu ) và hỗ trợ phát triển.
Tính hữu dụng của AI+Web3 được thể hiện qua sự bổ sung lẫn nhau: Web3 hy vọng có thể chống lại sự tập trung của AI, trong khi AI hy vọng giúp Web3 phá vỡ giới hạn.
Giới thiệu
Trong hai năm qua, sự phát triển của AI như được nhấn nút tăng tốc, hiệu ứng cánh bướm do Chatgpt khơi mào không chỉ mở ra một thế giới mới của trí tuệ nhân tạo sinh sinh, mà còn tạo ra một làn sóng mạnh mẽ ở bờ bên kia của Web3.
Dưới sự hỗ trợ của khái niệm AI, việc huy động vốn trong thị trường tiền điện tử chậm lại đã có sự cải thiện rõ rệt. Chỉ trong nửa đầu năm 2024, đã có tổng cộng 64 dự án Web3+AI hoàn thành việc huy động vốn, trong đó hệ điều hành dựa trên trí tuệ nhân tạo Zyber365 đã đạt mức huy động vốn tối đa 100 triệu USD trong vòng A.
Thị trường thứ cấp trở nên sôi động hơn, dữ liệu từ các trang web tổng hợp tiền điện tử cho thấy, chỉ trong hơn một năm, tổng giá trị thị trường của lĩnh vực AI đã đạt 48,5 tỷ USD, khối lượng giao dịch trong 24 giờ gần 8,6 tỷ USD; những tiến bộ công nghệ AI chính thống mang lại lợi ích rõ rệt, sau khi mô hình chuyển văn bản thành video Sora của OpenAI được phát hành, giá trung bình của lĩnh vực AI đã tăng 151%; hiệu ứng AI cũng lan tỏa đến một trong những lĩnh vực thu hút tiền điện tử là Meme: MemeCoin đầu tiên có khái niệm AI Agent------GOAT nhanh chóng nổi tiếng và đạt được giá trị 1,4 tỷ USD, thành công kích thích cơn sốt AI Meme.
Nghiên cứu và chủ đề về AI+Web3 cũng đang rất sôi nổi, từ AI+Depin đến AI Memecoin rồi đến các AI Agent và AI DAO hiện tại, cảm xúc FOMO đã không theo kịp tốc độ luân chuyển của các câu chuyện mới.
AI+Web3, cụm thuật ngữ đầy tiền nóng, cơ hội và ảo tưởng tương lai này, không tránh khỏi bị coi như một cuộc hôn nhân được vốn đầu tư sắp đặt, chúng ta dường như rất khó phân biệt dưới lớp áo choàng lộng lẫy này, rốt cuộc đây là sân chơi của những kẻ đầu cơ, hay là đêm trước của sự bùng nổ bình minh?
Để trả lời câu hỏi này, một suy nghĩ then chốt cho cả hai bên là, liệu có thể trở nên tốt hơn nhờ có nhau không? Liệu có thể hưởng lợi từ mô hình của nhau không? Trong bài viết này, chúng tôi cũng cố gắng đứng trên vai những người đi trước để xem xét bức tranh này: Web3 có thể đóng vai trò gì trong từng giai đoạn của công nghệ AI, và AI có thể mang lại sự sống mới cho Web3 như thế nào?
Phần 1: Cơ hội nào cho Web3 dưới AI stack?
Trước khi mở rộng chủ đề này, chúng ta cần hiểu về công nghệ của mô hình AI lớn.
Diễn đạt toàn bộ quá trình bằng ngôn ngữ dễ hiểu hơn: "Mô hình lớn" giống như bộ não của con người, ở giai đoạn đầu, bộ não này thuộc về một em bé vừa mới chào đời, cần quan sát và tiếp nhận lượng thông tin khổng lồ từ thế giới xung quanh để hiểu thế giới này, đó là giai đoạn "thu thập" dữ liệu; do máy tính không có các giác quan như thị giác, thính giác của con người, trước khi đào tạo, lượng thông tin lớn không được gán nhãn từ bên ngoài cần được "tiền xử lý" để chuyển đổi thành định dạng thông tin mà máy tính có thể hiểu và sử dụng.
Sau khi nhập dữ liệu, AI thông qua "đào tạo" đã xây dựng một mô hình có khả năng hiểu và dự đoán, điều này có thể được coi là quá trình mà một đứa trẻ dần dần hiểu và học hỏi từ thế giới xung quanh. Các tham số của mô hình giống như khả năng ngôn ngữ của đứa trẻ đang được điều chỉnh liên tục trong quá trình học tập. Khi nội dung học bắt đầu được phân chia theo chuyên ngành, hoặc khi giao tiếp với người khác nhận được phản hồi và được điều chỉnh, thì sẽ bước vào giai đoạn "tinh chỉnh" của mô hình lớn.
Trẻ em dần lớn lên và học nói, sau đó có thể hiểu ý nghĩa và bày tỏ cảm xúc cũng như suy nghĩ của mình trong các cuộc đối thoại mới. Giai đoạn này tương tự như "suy luận" của mô hình AI lớn, mô hình có khả năng dự đoán và phân tích các đầu vào ngôn ngữ và văn bản mới. Trẻ sơ sinh sử dụng khả năng ngôn ngữ để diễn tả cảm xúc, mô tả đồ vật và giải quyết các vấn đề khác nhau, điều này cũng tương tự như việc mô hình AI lớn được áp dụng vào các nhiệm vụ cụ thể sau khi hoàn thành quá trình huấn luyện và đưa vào sử dụng, chẳng hạn như phân loại hình ảnh, nhận diện giọng nói, v.v.
AI Agent thì gần hơn với hình thức tiếp theo của mô hình lớn ------ có khả năng thực hiện nhiệm vụ độc lập và theo đuổi mục tiêu phức tạp, không chỉ có khả năng suy nghĩ mà còn có thể ghi nhớ, lập kế hoạch và có khả năng sử dụng công cụ để tương tác với thế giới.
Hiện tại, nhằm giải quyết những điểm đau của AI trong các ngăn xếp khác nhau, Web3 hiện đã hình thành một hệ sinh thái đa tầng, kết nối lẫn nhau, bao gồm các giai đoạn khác nhau của quy trình mô hình AI.
Một, Tầng cơ sở: Airbnb về sức mạnh tính toán và dữ liệu
sức mạnh tính toán
Hiện tại, một trong những chi phí cao nhất của AI là sức mạnh tính toán và năng lượng cần thiết để đào tạo mô hình và mô hình suy diễn.
Một ví dụ là, LLAMA3 của Meta cần 16.000 GPU H100 do NVIDIA sản xuất(, đây là một đơn vị xử lý đồ họa hàng đầu được thiết kế đặc biệt cho trí tuệ nhân tạo và các khối lượng công việc tính toán hiệu suất cao. ) Mất 30 ngày để hoàn thành việc đào tạo. Giá của phiên bản 80GB dao động từ 30.000 đến 40.000 đô la, điều này cần phải đầu tư 400-700 triệu đô la vào phần cứng tính toán( GPU + chip mạng), trong khi việc đào tạo hàng tháng cần tiêu tốn 1,6 tỷ kilowatt giờ, chi phí năng lượng gần 20 triệu đô la mỗi tháng.
Đối với việc giải nén sức mạnh tính toán AI, đây cũng chính là lĩnh vực giao thoa đầu tiên giữa Web3 và AI ------ DePin( mạng lưới cơ sở hạ tầng vật lý phi tập trung) hiện tại, một trang web dữ liệu đã trưng bày hơn 1400 dự án, trong đó các dự án đại diện cho việc chia sẻ sức mạnh GPU bao gồm io.net, Aethir, Akash, Render Network và nhiều dự án khác.
Logic chính của nó là: nền tảng cho phép cá nhân hoặc thực thể sở hữu tài nguyên GPU nhàn rỗi đóng góp khả năng tính toán của họ theo cách phi tập trung mà không cần giấy phép, thông qua một thị trường trực tuyến cho người mua và người bán tương tự như Uber hoặc Airbnb, tăng cường tỷ lệ sử dụng tài nguyên GPU chưa được tận dụng đầy đủ, người dùng cuối do đó cũng nhận được tài nguyên tính toán hiệu quả với chi phí thấp hơn; đồng thời, cơ chế đặt cọc cũng đảm bảo rằng nếu xuất hiện vi phạm cơ chế kiểm soát chất lượng hoặc ngắt mạng, các nhà cung cấp tài nguyên sẽ phải chịu hình phạt tương ứng.
Đặc điểm của nó là:
Tập hợp tài nguyên GPU nhàn rỗi: Các nhà cung cấp chủ yếu là các trung tâm dữ liệu độc lập nhỏ và vừa, các nhà khai thác mỏ tiền điện tử và các tài nguyên tính toán dư thừa, phần cứng khai thác sử dụng cơ chế đồng thuận PoS, như máy khai thác FileCoin và ETH. Hiện tại, cũng có những dự án đang nỗ lực khởi động các thiết bị có ngưỡng tham gia thấp hơn, như exolab sử dụng MacBook, iPhone, iPad và các thiết bị địa phương khác để thiết lập mạng lưới tính toán cho việc suy diễn mô hình lớn.
Đối mặt với thị trường dài đuôi của sức mạnh AI:
a. "Về mặt công nghệ", thị trường sức mạnh phi tập trung phù hợp hơn với các bước suy luận. Việc đào tạo phụ thuộc nhiều hơn vào khả năng xử lý dữ liệu do GPU quy mô siêu lớn mang lại, trong khi suy luận yêu cầu hiệu suất tính toán GPU tương đối thấp, như Aethir tập trung vào công việc kết xuất độ trễ thấp và ứng dụng suy luận AI.
b. "Đối với phía cầu" thì các bên có nhu cầu tính toán nhỏ không đào tạo riêng mô hình lớn của mình, mà chỉ chọn tối ưu hóa, tinh chỉnh xung quanh một số mô hình lớn hàng đầu, và những tình huống này đều tự nhiên phù hợp với nguồn lực tính toán nhàn rỗi phân tán.
Dữ liệu
Dữ liệu là nền tảng của AI. Nếu không có dữ liệu, việc tính toán giống như bèo trôi, hoàn toàn vô nghĩa, và mối quan hệ giữa dữ liệu và mô hình giống như câu tục ngữ "Garbage in, Garbage out", số lượng dữ liệu và chất lượng đầu vào quyết định chất lượng đầu ra cuối cùng của mô hình. Đối với việc đào tạo mô hình AI hiện tại, dữ liệu quyết định khả năng ngôn ngữ, khả năng hiểu biết, thậm chí là quan điểm và biểu hiện nhân văn của mô hình. Hiện nay, những khó khăn về nhu cầu dữ liệu của AI chủ yếu tập trung vào bốn khía cạnh sau:
Cơn khát dữ liệu: Việc huấn luyện mô hình AI phụ thuộc vào lượng dữ liệu đầu vào khổng lồ. Tài liệu công khai cho thấy, OpenAI đã huấn luyện GPT-4 với số lượng tham số lên đến hàng nghìn tỷ.
Chất lượng dữ liệu: Với sự kết hợp của AI và các ngành công nghiệp, tính kịp thời của dữ liệu, tính đa dạng của dữ liệu, tính chuyên môn của dữ liệu theo lĩnh vực, và việc tiếp nhận các nguồn dữ liệu mới nổi như cảm xúc từ mạng xã hội đã đặt ra những yêu cầu mới đối với chất lượng của nó.
Vấn đề về quyền riêng tư và tuân thủ: Hiện nay, các quốc gia và doanh nghiệp đang dần nhận ra tầm quan trọng của các bộ dữ liệu chất lượng, và đang áp đặt các hạn chế đối với việc thu thập dữ liệu.
Chi phí xử lý dữ liệu cao: Khối lượng dữ liệu lớn, quy trình xử lý phức tạp. Tài liệu công khai cho thấy, hơn 30% chi phí nghiên cứu và phát triển của các công ty AI được sử dụng cho việc thu thập và xử lý dữ liệu cơ bản.
Hiện tại, giải pháp web3 được thể hiện ở bốn khía cạnh sau:
Để những người dùng thực sự đóng góp cũng tham gia vào việc tạo ra giá trị từ dữ liệu, cũng như thông qua mạng lưới phân tán và cơ chế khuyến khích, theo cách tiết kiệm chi phí để có được dữ liệu cá nhân hóa và có giá trị hơn từ người dùng, đó là tầm nhìn của Web3.
Như Grass là một lớp dữ liệu và mạng phi tập trung, người dùng có thể chạy nút Grass, đóng góp băng thông nhàn rỗi và lưu lượng trung gian để thu thập dữ liệu thời gian thực từ toàn bộ internet và nhận phần thưởng bằng token.
Vana đã giới thiệu một khái niệm độc đáo về bể thanh khoản dữ liệu (DLP), cho phép người dùng tải lên dữ liệu cá nhân của họ ( như lịch sử mua sắm, thói quen duyệt web, hoạt động trên mạng xã hội, v.v. ) vào DLP cụ thể và linh hoạt lựa chọn xem có cho phép các bên thứ ba cụ thể sử dụng những dữ liệu này hay không;
Trong PublicAI, người dùng có thể sử dụng #AI或#Web3 làm nhãn phân loại trên X và @PublicAI để thực hiện việc thu thập dữ liệu.
Hiện tại, Grass và OpenLayer đều đang xem xét việc tham gia vào giai đoạn quan trọng là gán nhãn dữ liệu.
Synesis đã đưa ra khái niệm "Train2earn", nhấn mạnh chất lượng dữ liệu, người dùng có thể nhận được phần thưởng bằng cách cung cấp dữ liệu được gán nhãn, chú thích hoặc các hình thức đầu vào khác.
Dự án đánh dấu dữ liệu Sapien đã gamify nhiệm vụ đánh dấu, và cho phép người dùng đặt cược điểm để kiếm thêm điểm.
Các công nghệ bảo mật trong Web3 hiện nay bao gồm:
Môi trường thực thi tin cậy ( TEE ), chẳng hạn như Super Protocol;
Mã hóa đồng nhất hoàn toàn ( FHE ), ví dụ như BasedAI, Fhenix.io hoặc Inco Network;
Công nghệ zero-knowledge ( zk ), như giao thức Reclaim sử dụng công nghệ zkTLS, tạo ra bằng chứng zero-knowledge cho lưu lượng HTTPS, cho phép người dùng an toàn nhập dữ liệu hoạt động, danh tiếng và danh tính từ các trang web bên ngoài mà không cần tiết lộ thông tin nhạy cảm.
Tuy nhiên, lĩnh vực này hiện vẫn ở giai đoạn đầu, hầu hết các dự án vẫn đang trong quá trình khám phá, hiện tại một khó khăn là chi phí tính toán quá cao, một số ví dụ là:
Khung zkML EZKL cần khoảng 80 phút để tạo ra một chứng nhận cho mô hình 1M-nanoGPT.
Theo dữ liệu từ Modulus Labs, chi phí của zkML cao hơn 1000 lần so với tính toán thuần túy.