分享好友 最新动态首页 最新动态分类 切换频道
IOSG 报告:去中心化数据层能否成为 AI 时代的新基础设施?
2024-12-26 22:48

作者:IOSG

TL / DR

我们曾讨论过 AI 和 Web3 能够如何各取所长,在计算网络、代理平台和消费应用等各个垂直产业上相辅相成。当聚焦在数据资源这一垂直领域,Web3 代表项目为数据的获取、共享和利用提供了新的可能性。

•传统数据提供商难以满足 AI 和其他数据驱动产业对高质量、实时可验证数据的需求,尤其在透明度、用户控制和隐私保护方面存在局限。

•Web3 方案正致力重塑数据生态。MPC、零知识证明和 TLS Notary 等技术确保数据在多个来源之间流通时的真实性和隐私保护,分布式存储和边缘计算则为数据的实时处理提供了更高的灵活性和效率。

•其中 去中心化数据网络 这一新兴基础设施萌生了几个代表性项目 OpenLayer(模块化的真实数据层),Grass(利用用户闲置带宽和去中心化的爬虫节点网络)和 Vana(用户数据主权 Layer 1 网络),以不同的技术路径为 AI 训练和应用等领域开辟新的前景。

通过众包的容量、无信任的抽象层和基于代币的激励机制,去中心化数据基础设施能够提供比 Web2 超大规模服务商更私密、安全、高效且经济的解决方案,并且赋予用户对其数据和其相关资源的控制权,构建一个更加开放、安全和互通的数字生态系统。

1. 数据需求浪潮

数据已成为各行业创新和决策的关键驱动。UBS 预测全球数据量预计将在 2020 年至 2030 年 间增长超过十倍,达到 660 ZB。到 2025 年,全球每人每天将产生 463 EB(Exabytes,1 EB = 10 亿 GB)的数据。数据即服务(DaaS)市场在快速扩张。根据 Grand View Research 的报告,全球 DaaS 市场在 2023 年 的估值为 143.6 亿美元,预计到 2030 年 将以 28.1% 的复合年增长率增长,最终达到 768 亿美元。这些高增长的数字背后是多个产业领域对高质量、实时可信赖数据的需求。

对于 Web3 生态,链上也需要可靠真实数据来支持一些新型金融产品。随着越来越多新型资产被通证化,需要灵活且可靠的数据接口,以支持创新产品的开发和风险管理,让智能合约可以基于可验证的实时数据执行。此外,还有科研、物联网(IoT)等领域。

新用例表明各行业对于多样、真实、实时的数据需求激增,而传统系统可能难以应对快速增长的数据量和不断变化的需求。

2. 传统数据生态的局限性和问题

典型的数据生态系统包括数据收集、存储、处理、分析和应用。中心化模式的特点是数据集中收集并存储,由核心企业 IT 团队管理运维,并实施严格的访问控制。

比如,谷歌 的数据生态系统涵盖了从搜索引擎、Gmail 到 Android 操作系统等多个数据源,通过这些平台收集用户数据,存储在其全球分布的数据中心,然后使用算法处理和分析,以支撑各种产品和服务的开发与优化。

数据覆盖不足:传统数据提供商在快速捕捉和分析如社交媒体情绪、物联网设备数据等新兴数据源方面存在挑战。中心化系统难以高效地获取和整合来自众多小规模或非主流来源的“长尾”数据。

比如 2021 年 GameStop 事件 也揭示了传统金融数据提供商在分析社交媒体情绪的局限性。Reddit 等平台上的投资者情绪迅速改变了市场走势,但像 Bloomberg 和 Reuters 这样的数据终端未能及时捕捉到这些动态,导致市场预测难度加大。

•数据可访问性受限:垄断限制了可访问性。许多传统提供商通过 API / 云服务 开放部分数据,但高昂的访问费用和复杂授权流程仍然增加了数据整合的难度。

链上开发者难以快速接入可靠的链下数据,高质量数据被少数巨头垄断,访问成本高。

•数据透明度和可信度问题:许多中心化数据提供商对其数据收集和处理方法缺乏透明度,且缺乏有效的机制来验证大规模数据的真实性和完整性。大规模实时数据的验证仍然是一个复杂的问题,中心化的本质也增加了数据被篡改或操纵的风险。

•隐私保护和数据所有权:大型科技公司和大规模商用平台广泛使用用户数据。用户作为私人的数据创造者,很难从中获得应有的价值回报。用户通常无法了解他们的数据如何被收集、处理和使用,也难以决定数据的使用范围和方式。过度收集和使用数据导致严重的隐私风险。

例如,Facebook 的 Cambridge Analytica 事件 就揭露了传统数据提供商如何在使用数据时透明度和隐私保护方面存在巨大漏洞。

数据孤岛:此外,不同来源、格式的分散数据难以快速整合,影响了全面分析的可能性。很多数据往往被锁在组织内部,限制了跨行业和跨组织的数据共享和创新。数据孤岛效应 阻碍了跨域的数据整合和分析。

比如在消费行业,品牌需要整合来自电商平台、实体店、社交媒体和市场研究的数据,但这些数据可能由于平台形式不统一或被隔离,难以整合。再例如,像 Uber 和 Lyft 这样的共享出行公司,虽然它们都收集大量来自用户的,关于交通、乘客需求和地理位置的实时数据,但由于竞争关系,这些数据无法提出并共享整合。

除此以外,还有成本效率、灵活性等问题。传统数据商正在积极应对这些挑战,  但异军突起的 Web3 技术为解决这些问题提供了新的思路和可能性。

3. Web3 数据生态

自 2014 年 IPFS(InterPlanetary File System) 等去中心化存储方案发布以来,业界涌现出一系列新兴项目,致力于解决传统数据生态的局限性。我们看到去中心化数据解决方案已经形成了一个多层次、相互连接的生态系统,涵盖了数据生命周期的各个阶段,包括数据生成、存储、交换、处理与分析、验证与安全,以及隐私与所有权。

数据存储:Filecoin 和 Arweave 的快速发展证明了去中心化存储(DCS)正在成为存储领域的范式转变。DCS 方案通过分布式架构减少了单点故障风险,同时以更具竞争力的成本效益吸引参与者。随着一系列规模化应用案例的涌现,DCS 的存储容量呈现爆发式增长(例如 Filecoin 网络的总存储容量在 2024 年 已达到 22 exabytes)。处理和分析:Fluence 等去中心化数据运算平台通过边缘计算(Edge Computing)技术提高了数据处理的实时性和效率,特别适用于物联网(IoT)和 AI 推理等对实时性要求较高的应用场景。Web3 项目利用联邦学习、差分隐私、可信执行环境、全同态加密等技术在计算层上提供灵活的隐私保护和权衡。

•数据市场 / 交换平台:为了促进数据的价值重化和流通,Ocean Protocol 通过代币化和 DEX 机制,创建了高效且开放的数据交换渠道,例如帮助传统制造公司(奔驰母公司 Daimler)合作开发数据交换市场,以帮助供应链管理中的数据分享。另一方面,Streamr 则创造了适用于 IoT 和实时分析场景的无许可、订阅式数据流网络,在交通、物流项目中显示了出色的潜力(例如与芬兰智能城市项目合作)。

随著数据交换和利用的日益频繁,数据的真实性、可靠性和隐私保护成为了不可忽视的关键问题。这促使 Web3 生态系统持续创新迭代到数据验证和隐私保护领域,催生了一系列突破性的解决方案。

3.1 数据验证与隐私保护的革新

许多 web3 技术及原生项目正致力于解决数据真实性和私有数据保护问题。除了 ZK,MPC 等技术发展被广泛应用,其中传输层安全协议公证(TLS Notary)作为一种新兴的验证方法尤其值得关注。TLS Notary 简介传输层安全协议(TLS)是一种广泛用于网络通信的加密协议,旨在确保客户端和服务器之间的数据传输的安全性、完整性和保密性。它是现代网络通信中常见的加密标准,被用于 HTTPS、电子邮件、即时通讯等多个场景。

十年前诞生之际,TLSNotary的最初目标是通过在客户端(Prover)、服务器以外引入第三方“公证人”来验证TLS会话的真实性。

4. 去中心化数据网络

一些项目则结合上述的数据验证技术,在数据生态的上游,即数据溯源、数据的分布式采集和可信传输上做出更深入的探索。下面重点讨论几个代表性项目:OpenLayer、Grass 和 Vana,它们在构建新一代数据基础设施方面展现出独特的潜力。

4.1 OpenLayer

OpenLayer 是 a16z Crypto 2024 春季加密创业加速器项目之一,作为首个模块化的真实数据层,致力于提供一个创新的模块化解决方案,用于协调数据的收集、验证和转换,以同时满足 Web2 和 Web3 公司的需求。OpenLayer 已吸引了包括 Geometry Ventures、LongHash Ventures 在内的知名基金和天使投资者的支持。

传统数据层存在多重挑战:缺乏可信验证机制,依赖中心化架构导致访问性受限,不同系统间的数据缺乏互操作性和流动性,同时也没有公平的数据价值分配机制。

一个更加具体的问题是,当 AI 训练数据正在变得日益稀缺。在公共互联网中,许多网站开始通过爬虫限制措施来防止 AI 公司大规模获取数据。

而在私密专有数据方面,情况则更为复杂。许多有价值的数据由于其敏感性质而以隐私保护的方式存储,缺乏有效的激励机制。在这种现状下,用户无法安全地通过提供私人数据获得直接收益,因此不愿意共享这些敏感数据。

为了解决这些问题,OpenLayer 结合数据验证技术搭建了一个模块化真实数据层(Modular Authentic Data Layer),并以去中心化经济激励的方式来协调数据收集、验证和转换过程,为 Web2 和 Web3 公司提供一个更安全、高效率、灵活的数据基础设施。

4.1.1 OpenLayer 模块化设计的核心组件

OpenLayer 提供了一个模块化的平台以简化数据的收集、可信验证和转换过程流程:

a) OpenNodes

OpenNodes 是 OpenLayer 生态系统中负责去中心化数据收集的核心组件,通过用户的移动应用、浏览器扩展等渠道收集数据,不同的运营商节点可以根据其硬件规格执行最适合的任务而优化回报。

OpenNodes 支持三种主要的数据类型,以满足不同类型任务的需求:

•公开可用的互联网数据(如金融数据、天气数据、体育数据和社交媒体流)

•用户私人数据(如 Netflix 观看历史、Amazon 订单记录等)

•来自安全来源的自报告数据(如由专有所有者签名或特定可信硬件验证的数据)

开发者可以轻松添加新的数据类型,指定新的数据源、需求和数据检索方法,用户可以选择提供去识别化的数据以换取奖励。这种设计使得系统可以不断扩展以适应新的数据需求,多样化的数据源使得 OpenLayer 能够为各种应用场景提供全面的数据支持,也降低了数据提供的门槛。

b) OpenValidators

OpenValidators 负责收集之后的数据验证,允许数据消费者确认用户提供的数据与数据源的完全匹配。所有提供的验证方法可以进行加密证明的,验证结果可以在事后被证实。同一类型的证明,有多个不同的提供商提供服务。开发者可以根据自己的需求选择最适合的验证提供商。

在初始用例中,特别是针对来自互联网 API 的公共或私有数据,OpenLayer 以 TLS Notary 作为验证解决方案,从任何 Web 应用程序导出数据,并在不损害隐私的情况下证明数据的真实性。

不局限于 TLS Notary,得益于其模块化设计,验证系统可以轻松接入其他验证方法,以适应不同类型的数据和验证需求包括但不限于:

1.Attested TLS connections:利用可信执行环境(TEE)建立经过认证的 TLS 连接,确保数据在传输过程中的完整性和真实性。2.Secure Enclaves:使用硬件级别的安全隔离环境(如 Intel SGX)来处理和验证敏感数据,提供更高级别的数据保护。3.ZK Proof Generators:集成 ZKP,允许在不泄露原始数据的情况下验证数据的属性或计算结果。

c) OpenConnect

OpenConnect 是 OpenLayer 生态系统中负责数据转换、实现可用性的核心模块,处理来自各种来源的数据,确保数据在不同系统间的互操作性,以满足不同应用的需求。例如:

•将数据转换为链上预言机(Oracle)格式,便于智能合约直接使用。

•将非结构化原始数据转换为结构化数据,为 AI 训练等目的进行预处理。

对于来自用户私人账户的数据,OpenConnect 提供了数据脱敏功能以保护隐私,也提供了组件来增强数据共享过程中的安全性,减少数据泄露和滥用。为满足 AI 和区块链等应用对实时数据的需求,OpenConnect 支持高效的实时数据转换。

当下,通过 Eigenlayer 的集成,OpenLayer AVS 运营商监听数据请求任务,负责抓取数据并进行验证,然后将结果报告回系统,通过 EigenLayer 质押或重质押资产,为其行为提供经济担保。如恶意行为被证实,将面临质押资产被罚没的风险。作为 EigenLayer 主网上最早的 AVS(主动验证服务)之一,OpenLayer 已吸引了超过 50 个运营商和 40 亿美元 的再质押资产。

总体来说,OpenLayer 所构建的去中心化数据层在不牺牲实用性和效率的前提下,扩展了可用数据的范围和多样性,同时通过加密技术和经济激励,确保了数据的真实性和完整性。其技术对于寻求获取链下信赖的 Web3 Dapp、需要真实输入来训练和推断 AI 模型,以及希望根据其身份和声誉来细分和定价用户的公司都有广泛的实际应用。用户也得以价值化他们的私有数据。

4.2 Grass

Grass 是由 Wynd Network 开发的旗舰项目,旨在创建一个去中心化的网络爬虫和 AI 训练数据平台。在 2023 年末,Grass 项目完成了由 Polychain Capital 和 Tribe Capital 领投的 350 万美元种子轮融资。紧接着,在 2024 年 9 月,项目又迎来了由 HackVC 领投的 A 轮融资,Polychain、Delphi、Lattice 和 Brevan Howard 等知名投资机构也参与其中。

我们提到 AI 训练需要新的数据输入,而其中一个解决方案是使用多 IP 来突破数据访问的权限,为 AI 进行数据喂养。Grass 由此出发,创造了一个分布式爬虫节点网络,专门致力于去中心化物理基础设施的方式,利用用户的闲置带宽为 AI 训练收集并提供可验证数据集。节点通过用户的互联网连接路由 web 请求,访问公开网站并编译结构化数据集。它使用边缘计算技术进行初步数据清理和格式化,提高数据质量。

Grass 采用了 Solana Layer 2 Data Rollup 架构,建立在 Solana 之上以提高处理效率。Grass 使用验证器接收、验证和批处理来自节点的 web 交易,生成 ZK 证明以确保数据真实性。验证后的数据存储在数据账本(L2)中,并链接到相应的 L1 链上证明。

4.2.1 Grass 主要组件

a) Grass 节点

与 OpenNodes 类似,C 端用户 安装 Grass 应用或浏览器扩展并运行,利用闲置带宽进行网络爬虫操作,节点通过用户的互联网连接路由 web 请求,访问公开网站并编译结构化数据集,使用边缘计算技术进行初步数据清理和格式化。用户根据贡献的带宽和数据量获得 GRASS 代币奖励。

b) 路由器 (Routers)

连接 Grass 节点和验证器,管理节点网络并中继带宽。Routers 被激励运营并获得奖励,奖励比例与通过其中继的总验证带宽成正比。

c) 验证器 (Validators)

接收、验证和批处理来自路由器的 web 交易,生成 ZK 证明,使用独特的密钥集来建立 TLS 连接,为与目标 web 服务器的通信选择适当的密码套件。Grass 目前采用中心化验证器,未来计划转向验证器委员会。

d) ZK 处理器 (ZK Processor)

接收来自验证者生成的每个节点会话数据的证明,批处理所有 web 请求的有效性证明并提交到 Layer 1 (Solana)。

e) Grass 数据账本 (Grass L2)

存储完整的数据集,并链接到相应的 L1 链(Solana)上证明。

f) 边缘嵌入模型

OpenLayer 和 Grass 都利用分布式网络为公司提供了访问开放互联网数据和需要身份验证的封闭信息的机会。以激励机制促进了数据共享和高质量数据的生产。两者都致力于创建一个去中心化数据层(Decentralized Data Layer)以解决数据获取访问和验证的问题,但采用了略有不同的技术路径和商业模式。

技术架构的不同

Grass 使用 Solana Layer 2 Data Rollup 架构,目前采用中心化的验证机制,使用单一的验证器。而 OpenLayer 作为首批 AVS,基于 EigenLayer 构建,利用经济激励和罚没机制实现 去中心化的验证机制。并采用模块化设计,强调数据验证服务的可扩展性和灵活性。

产品差异

两者都提供了类似的 To C 产品,允许用户通过节点进行数据的价值变现。在 To B 侧,Grass 提供了一个有趣的数据市场模型,并使用 L2 来验证并存储完整的数据,来自 AI 公司提供结构化、高质量、可验证的训练集。而 OpenLayer 并没有暂时专用的数据存储组件,但提供更广泛的实时数据流验证服务(Vaas),除了为 AI 提供数据,也适用于需要快速响应的场景,比如作为 Oracle 为 RWA / DeFi 预测市场项目喂价,提供实时社交数据等。

因此,如今 Grass 的目标客户群主要面向 AI 公司和数据科学家,提供大规模、结构化的训练数据集,也服务于需要大量网络数据的研究机构和企业;而 OpenLayer 则暂时面向需要链下数据源的链上开发者、需要实时、可验证的数据流的 AI 公司,以及支持创新的用户获取策略,如验证产品使用历史的 Web2 公司。

未来的潜在竞争

然而,考虑到行业发展趋势,两个项目的功能确实有可能在未来趋同。Grass 不久后可能也将提供实时的结构化数据。而 OpenLayer 作为一个模块化平台,未来也有可能扩展到数据集管理拥有自己的 data ledger,因此两者的竞争领域可能会逐渐重叠。

并且,两个项目都可能会考虑加入数据标注(data labelling)这一关键环节。Grass 在这方面可能会更快推进,因为他们拥有庞大的节点网络 - 据报道已超过 220 万 个活跃节点。这一优势使 Grass 有潜力提供基于人类反馈的强化学习(RLHF)服务,利用大量标注数据来优化 AI 模型。

然而,OpenLayer 凭借其在数据验证和实时处理方面的专长,其在私人数据的专注,可能会在数据质量和可信度方面保持优势。此外,OpenLayer 作为 EigenLayer 的 AVS 之一,可能在去中心化验证机制上有更深入的发展。

作为一个以用户为中心的数据池网络,Vana 同样致力于为 AI 和相关应用提供高质量数据。相比 OpenLayer 和 Grass,Vana 采用了更不同的技术路径和商业模式。Vana 在 2024 年 9 月完成 500 万美元融资,由 Coinbase Ventures 领投,此前获得 Paradigm 领投的 1800 万美元 A 轮融资,其他知名投资者包括 Polychain、Casey Caruso 等。

最初于 2018 年 作为 MIT 的一个研究项目启动,Vana 旨在成为一个专门为用户私人数据设计的 Layer 1 区块链。其在数据所有权和价值分配上做出的创新使用户能够从基于其数据训练的 AI 模型中获利。Vana 的核心在于通过无需信任、私密且可见的数据 数据流动性池(Data Liquidity Pool) 和创新的 Proof of Contribution 机制来实现私人数据的流通和价值化:

4.3.1 数据流动性池(Data Liquidity Pool)

Vana 引入了一个独特的数据流动性池(DLP)概念:作为 Vana 网络的核心组件,每个 DLP 都是一个独立的点对点网络,用于聚合特定类型的数据资产。用户可以将他们的私人数据(如购物记录、浏览习惯、社交媒体活动等)上传至特定 DLP,并灵活选择是否将这些数据授权给特定的第三方使用。数据通过这些流动性池被整合和管理,这些数据经过去识别化处理,确保用户隐私的同时允许数据参与商业应用,例如用于 AI 模型训练或市场研究。

用户向 DLP 提交数据并获得相应的 DLP 代币(每一个 DLP 都有特定的代币)奖励,这些代币不仅代表用户数据的总贡献,还赋予用户对 DLP 的治理权和未来利润分配权。用户不仅可以分享数据,还可以从数据的后续调用中获取持续的收益(并提供可视化追踪)。与传统的单次数据售卖不同,Vana 允许数据持续参与经济循环。

4.3.2 Proof of Contribution 机制

Vana 的另一个核心创新之一是 Proof of Contribution(贡献证明)机制。这是 Vana 确保数据质量的关键机制,让每个 DLP 可以根据其特性控制独特的贡献证明函数,以验证数据的真实性和完整性,并评估数据对 AI 模型性能提升的贡献。这一机制确保用户的数据贡献得到量化和记录,从而为用户提供奖励。

与加密货币中的“工作量证明”(Proof of Work)类似,Proof of Contribution 根据用户贡献的数据质量、数量以及被使用的频次来为用户分配收益。通过智能合约自动执行,确保贡献者获得与其贡献匹配的奖励。

Vana 的技术架构

1.数据流动性层(Data Liquidity Layer)

这是 Vana 的核心层,负责数据的贡献、验证和记录到 DLPs,将数据作为可转移的数字资产引入链上。DLP 创建部署 DLP 智能合约,设定数据贡献目的、验证方法和贡献参数。数据贡献者和托管者提交数据进行验证,贡献证明(PoC)模块会执行数据验证和价值评估,根据参数给予治理权和奖励。

2.数据可移植层(Data Portability Layer)

这是数据贡献者和开发者的开放数据平台,也是 Vana 的应用层。Data Portability Layer 为数据贡献者和开发者提供一个协作空间,以使用 DLPs 中积累的数据流动性构建应用。为 User-Owned 模型分布式训练、AI Dapp 开发提供基础设施。

3.通用连接组(Connectome)

一个去中心化账本,也是一个贯穿整个 Vana 生态系统的实时数据流图,使用权益证明共识(Proof of Stake)记录 Vana 生态系统中的实时数据交易。确保 DLP 代币的有效转移并为应用提供跨 DLP 数据访问。与 EVM 兼容,允许与其他网络、协议和 DeFi 应用程序互操作。

Vana提供了一条较为不同的路径,专注于用户数据的流动性和价值赋能,这种去中心化的数据交换模式不仅适用于AI训练、数据市场等场景,也为Web3生态系统中用户数据的跨平台互通与授权提供了一个新的解决方案,最终创建一个开放的互联网生态系统,让用户拥有并管理自己的数据,以及由这些数据创造的智能产品。

5. 去中心化数据网络的价值主张

数据科学家克莱夫·哈姆比(Clive Humby)在 2006 年 说过数据是新时代的石油。近 20 年间,我们见证了“提炼”技术的飞速发展。大数据分析、机器学习等技术使得数据价值得到了空前释放。根据 IDC 的预测,到 2025 年,全球数据圈将增长到 163 ZB,其中大部分将来自个人用户,随着 IoT、可穿戴设备、AI 与个性化服务等新兴科技的普及,未来大量需要用的数据将也将来源于个人。

传统方案的痛点:Web3 的解锁创新

Web3 数据解决方案通过分布式节点网络,突破了传统设施的局限,实现了更广泛、更高效的数据采集,同时提升了特定数据的实时获取效率和验证可信度。在此过程中,Web3 技术确保了数据的真实性和完整性,并能有效保护用户隐私,从而实现更公平的数据利用模式。这种去中心化的数据架构,推动了数据获取的 民主化。

不管是 OpenLayer 和 Grass 的用户节点模式,还是 Vana 通过用户私人数据的货币化,除了提高特定数据采集的效率,也让普通用户共享数据经济的红利,创造一种用户与开发者双赢的模式,让用户真正掌控和获益于他们的数据和相关资源。

通过代币经济激励,Web3 数据方案重新设计了激励模型,创造了一个更公平的数据价值分配机制。吸引大量用户、硬件资源与资本的注入,从而协同调节优化了整个数据网络的运行。

相比传统数据解决方案,它们也拥有 模块化与可扩展性:比如 OpenLayer 的模块化设计,为未来的技术迭代和生态扩展提供了灵活性。得益于技术特性,优化 AI 模型训练的数据获取方式,提供更丰富、更多样化的数据集。

从数据生成、存储、验证到交换与分析,Web3 驱动的解决方案通过独有技术优势解决了传统设施的诸多弊端,同时也赋予用户对个人数据的变现能力,引发数据经济模式的根本转变。随着技术进一步发展演进和应用场景的扩大,去中心化数据层有望与其他 Web3 数据解决方案一起,成为下一代关键基础设施,为广泛的数据驱动型产业提供支持。

最新文章
网站文章快速地被百度搜索引擎收录的操作方法解析
今天Lkr.com SEO技术教程学习网就来给大家分享一下它的实际测试操作:如何让百度搜索引擎快速收录网站文章。第一步:为网站文章建立关键词标题简单来说,很多站长都会使用关键词来嵌入网站文章标题,但是很多站长却忽略了用户的搜索习惯。
《名侦探柯南》第1121话图透:新一和小兰甜蜜发糖!白马探看穿基德伪装?
最近一个月,《名侦探柯南》漫画正在连载新的系列篇章,柯南、基德(新一)、白马探、小兰等人气角色集体登场。剧情有“新兰”CP发糖的甜蜜、有“三巨头”联手破案的烧脑、还有白马探辨别基德身份的惊险,每一话都无比精彩。而《名侦探柯南
陈达美股投资
几天前去了百度世界2024,人山人海纳百川。我讲百度的段子已经讲到了,只要提到百度,大家就会想到我。所以会后就有媒体记者采访,阿达啊,说说百度世界2024呗。我说啊,“三个事印象比较深刻,第一,没想到大模型那么难货币化变现,道阻且
百度和吉利高管称将兜底极越智驾和售后;Kimi突然崩了丨邦早报
【百度和吉利高管称将兜底极越智驾和售后】12月14日,百度集团副总裁、智能驾驶事业群组总裁王云鹏在朋友圈公开表示:“我们已经开始行动,智驾和地图导航有我们兜底,请极越车主放心。”同日,吉利控股集团高级副总裁杨学良也发布微博称,
百度明星排行榜在哪(百度明星排行榜在哪看)
大家好!今天让创意岭的小编来大家介绍下关于百度明星排行榜在哪的问题,以下是小编对此问题的归纳整理,让我们一起来看看吧。开始之前先推荐一个非常厉害的Ai人工智能工具,一键生成原创文章、方案、文案、工作计划、工作报告、论文、代码
云决科技如何利用AI技术革新办公场景,助力行业转型
近年来,人工智能(AI)的迅速发展引发了科技界和各行业的广泛关注。从2016年阿尔法狗战胜围棋冠军李世石以来,公众对于AI的信任度大幅攀升。2020年,OpenAI推出的ChatGPT-3,更是使得AI的应用普及化,推动了智能化时代的到来。在这一背景
还了本金还要还逾期利息吗?该怎么办呢?
还了本金还要还逾期利息吗?怎么办?小编导语在现代社会,借贷已经成为人们生活中不可或缺的一部分。很多人在急需资金时选择通过借款解决燃眉之急。借款往往伴随着利息,尤其是逾期利息。很多借款人常常会有一个疑问:当我已经还清了本金,
百度地图怎么定位自己位置的方法
在百度地图APP上定位自己的位置可以通过以下两种方法实现:方法一:使用百度地图APP进行实时定位1. 打开手机上的百度地图APP。2. 进入到百度地图主界面,点击左上角的一个头像标志(即我的位置)。3. 进入我的个人中心界面,往下滑动一点点
点评真实剖析联想笔记本电脑小新pro14和pro16哪个好一些?有啥区别?使用真实说说!
联想笔记本电脑小新pro14和pro16哪个更好一些?区别明显不?二个联想笔记本电脑小新pro14和pro16区别不大的哈,通过对比后我买的是联想笔记本电脑小新Pro14,系列感觉颜值很在线,而且磨砂工艺,不会留下手印,打开后运行速度很快,而且屏
腾讯云双12优惠券领取难题,快速解锁攻略!
腾讯云双12优惠券领取难题,快速解锁攻略!
相关文章
推荐文章
发表评论
0评