
新闻资讯
News and information
-
25
04/19
DeepSeek 是企业软件的“救命稻草”,还是“催命符”?
未来可能没有软件,只有数据库未来可能没有软件了,就剩个数据库,前面全是AI调用,机器人就把所有事都干了。当DeepSeek以开源之势席卷技术圈,企业软件行业正面临一场前所未有的价值重估。大模型的能力平权是否会让SaaS厂商失去技术壁垒?AI驱动的“数字员工”是否会终结传统软件的存在逻辑?既有厂商该如何守住护城河,新锐势力又该如何抓住弯道超车的机会?在崔牛会策划的“DeepTalk|DeepSeek猜想系列”对话中,崔牛会创始人&CEO崔强主持了主题为“DeepSeek对企业软件是「利好」还是「利空」?”对话,特邀沃行科技创始人&CEO郭舜日、53AI创始人&CEO杨芳贤、「信息化与数字化」主理人沈旸,就相关话题进行了深入探讨。郭舜日认为,有价值创造能力和组织力的企业不容易被淘汰。如果问哪类软件最危险,他认为是单一功能的技术型、工具型SaaS。以RPA(机器人流程自动化)软件为例,现在Claude提出的MCP协议等功能,已经能用多模态技术直接观察屏幕操作,完全替代传统RPA。企业不再需要专业的RPA工具,就能轻松实现自动化。这对传统RPA公司是颠覆性的。再比如机器人领域。以前波士顿动力的机器人需要编程各种动作规则,现在基于大模型的机器人可以通过学习直接执行任务,不再需要预先编写规则。这类技术进步会让很多单一功能的工具型软件失去存在价值。杨芳贤的判断是,今天大模型端到端的能力被严重高估了。无论是科技界、学术界还是产业界,对大模型的预期都非常高。实际上目前大模型在企业的落地应用,真正能拿到确定性结果的场景还比较有限。而且这些场景需融合企业知识、流程,还有一些需要基于企业现有的数字化基座实现的。他认为,10-20年后,传统SaaS将消失,AI的终极形态是AI生产力,会是数字人与SaaS的融合。传统软件会消亡,软件从业者会转型为AI从业者。沈旸的看法则更为激进,认为这个时间周期会更短,可能在半年内是“救命稻草”,但半年或一年后就会变成“杀手锏”。未来SaaS会变成“ServiceasaService”,Software本身的重要性会大大降低。他认为,SaaS的订阅模式(按人头收费)会被AI颠覆,未来要么卖实时数据,要么卖服务效果。这场对话充满了尖锐的观点碰撞,对于企业来说,与其焦虑被颠覆,不如先让AI帮你省下10个外包人力。阅读目录1.是“救命稻草”,还是“催命符”?2.“前期投入,后期躺赚”将不复存在3.哪类软件会先被淘汰?4.AI有哪些真正可落地的场景?5.比技术和产品更重要的是方法论6.别做“半吊子”产品7.“数据安全”不再是企业落地大模型的主要障碍8.企业“上云”,还是“下云”?说明:在此,也特别感谢ECCRM创始人&CEO张星亮对这场对话的参与和支持。以下为对话内容,经牛透社编辑整理:(有删减)是“救命稻草”,还是“催命符”?崔强:今天是我们「DeepTalk」栏目的第三期讨论,主题是探讨DeepSeek对SaaS行业的影响。前两期我们分别从投资人和原生AI创业者的角度进行了探讨,今天我们将聚焦SaaS从业者的视角。三位嘉宾简单介绍下自己。郭舜日:我是沃行科技的创始人,公司对外叫WallTech,主要做航运SaaS。我们有两类产品:国际货代SaaS和跨境电商物流SaaS。目前国内3%的国际物流企业使用我们的平台,服务了1500多家SaaS客户。期待和大家交流AI如何赋能ToB企业。杨芳贤:我是53AI创始人。过去两年我们一直在探索大模型在企业的落地应用,我亲自参与了公司大部分重要项目的售前与交付工作,同时也担任了几家上市公司的大模型落地应用顾问。很高兴能和大家分享我以一个创业者的角色在一线的实践经验和思考。沈旸:我在ToB领域工作多年,最早做了十年ERP咨询,后来转到甲方做数字化建设,现在负责一家供应链金融公司的数字化业务。过去两年我们在AI落地方面做了很多实践,也踩过不少坑,积累了一些心得。很高兴能和大家交流。崔强:今晚我们主要讨论两个核心问题:一是DeepSeek对SaaS行业来说是“救命稻草”还是“催命符”?DeepSeek是不是SaaS的“葵花宝典”?大家都知道“欲练此功,必先自宫”,但练完之后可能也没什么用。各位怎么看?杨芳贤:这个观点很有意思,我也很认同。从长远来看,比如10~20年的维度,DeepSeek确实是SaaS的“催命符”。回归到当下,未来3~5年大模型对SaaS企业是有促进作用的。核心在于,AI终极形态是AI生产力,是要替代知识工作者的脑力劳动,本质上是数字人与SaaS的融合。从这个角度看,传统SaaS软件将会消失,但SaaS行业的从业者会一直在,因为中国企业的创新精神不会消失。沈旸:我基本同意杨芳贤的观点,不过我认为这个时间周期可能会更短。可能在半年内是“救命稻草”,但半年或一年后就会变成“杀手锏”。未来SaaS可能会变成“ServiceasaService”,Software本身的重要性会大大降低。郭舜日:这个问题需要结合SaaS行业和企业发展的现状来看。AI既带来机遇也带来挑战,本质上是对现有商业模式的重构。很多SaaS企业不盈利,主要因为高昂的实施和获客成本。如果AI工具能替代这些非结构化工作,将极大降低成本结构。从这个角度看,AI对一些企业确实是"救命稻草"。更进一步,运用AI得当的企业不仅能解决生存问题,还能提升竞争力。但对AI反应迟缓的企业来说,AI就是"催命符"了。他们可能会被擅长使用AI的竞争对手超越,甚至出现小企业借助AI反超大企业的情况。所以关键要看企业拥抱AI的程度,以及AI能具体赋能哪些业务环节。“前期投入,后期躺赚”将不复存在崔强:如果抛开现有的立场和包袱,作为一个新进入企业服务领域的创业者,应该怎么看待和思考这个问题?郭舜日:我认为现在AI的发展给新创业者带来了非常好的机会。首先,AI带来了全新的能力,很多原本需要复杂架构和大量人力才能完成的工作,现在通过AI就能实现,大大降低了管理难度和成本。其次,对于新进入SaaS领域的企业来说,如果能用好AI技术,可以在某些特定功能上实现突破,甚至超越传统的行业领先企业。我举个具体的例子,比如仓库管理软件(WMS),以前需要开发复杂的调度算法和处理策略,现在通过AI大模型就能实现,而且效果可能比传统算法更好。最关键的是,传统企业可能需要10年积累的经验和能力,新创企业通过运用AI大模型就能快速掌握。这意味着新创企业可以更快地开发出创新的产品体验,建立更具竞争力的成本结构。所以这对新进入者来说是个巨大的机会,而对于现有的行业领先企业来说,则需要特别警惕这个发展趋势。崔强:沈旸,你属于以前是客户的身份,你刚才的判断很激烈——说半年内是“救命稻草”,半年到一年后就是“催命符”。这个判断是基于什么逻辑?那天有朋友来找我说,未来可能没有软件了,就剩个数据库,前面全是AI调用,机器人就把所有事都干了。会不会是这样?沈旸:现在的情况已经很接近这个预测了。除了DeepSeek,市面上另一个模型Claude的影响也很大。特别是Claude3.5和3.7版本出来后,具备了很强的调用工具和软件的能力。在这之前,包括DeepSeek更多是做推理,能把过程拆解,但直接落地还做不到,需要很多外挂处理。我最近和工程师打交道比较多,明显看到像Cursor这样的编程工具,借助Claude模型可以调用很多本地工具,通过MCP协议操作本地文件,甚至可能误删文件。这让原本只是聊天的AI变得可执行。DeepSeek进化快的一个重要原因是强化学习。数学题训练有个特点:学得好可以拿满分,但语文很难满分,因为评判标准不固定。同样,大语言模型很难做到100%准确。但在DeepSeek领域,虽然仍是概率模型,但通过强化学习可以验证答案是否正确。在代码领域更明显:代码可以运行测试,验证页面是否符合预期。一旦工业化、规模化,AI很容易处理这种场景。最近三个月这样的场景越来越多。Manus带给行业很大的刺激,但更多进展是在软件工程领域。未来,只要是AI能看到的,它就有能力复制软件。如果软件靠功能点叠加,比如企业管理软件按功能点计价,以前要追赶需要投入同样的人力。但任何公司都很难持续投入上千人做三年。现在AI可以把软件拆解、运行、验证,24小时并行处理,很快就能找到可复制的方式,这对软件工程是巨大颠覆。以前,SaaS和软件行业想“前期投入,后期躺着赚钱”的模式将不复存在。企业要么持续投入研发,要么提供实时服务和数据,不可能再靠十年前做的软件持续盈利。崔强:芳贤,你怎么看刚才的问题?为什么判断“AI对于企业软件来说,十年内是救命稻草,十年后是催命符”?杨芳贤:首先,从AI的终极形态来看,我跟沈旸的观点是一致的。但沈旸说半年、一年,我觉得没那么快。背后的逻辑在于,今天大模型端到端的能力被极大的高估了。无论是科技界、学术界还是产业界,对大模型的预期都非常高。实际上,目前大模型在企业的落地应用,真正能拿到确定性结果的场景还相对有限。而且这些场景需要融入企业的知识和流程,还有一些需要基于企业现有的数字化基座来实现。大模型被称为“第四次工业革命”,这在业界已经有极大的共识。以史为鉴,无论是电力还是信息技术,从技术出现到极大地提升生产力,需要一定的时间。所以我的观点是,大模型落地应用也是这样,大规模地形成AI生产力也需要三五年,甚至十年以上的时间。一方面是源于对历史的观察,另一方面是我们过去两年在企业落地实践看到的——今天还无法直接通过大模型及各种Agent全链路完成大部分岗位的全流程,但是在这些岗位工作流中的一个节点、一个工序,借助大模型能极大地提升效率。基于此,在未来很长的一段时间企业软件还是会长期存在,并且会成为企业迈向智能化的基础。郭舜日:我补充一下。现在AI应用面临的最大问题是,很多企业的数据还处于信息孤岛状态,数据清洗和基础知识的完整度、单元化程度都不够。这种情况下,AI对知识的积累和理解是有限的。目前,主要瓶颈不在于AI技术本身,而在于传统SaaS领域的数据沉淀和经验积累不足。比如我们平台上有37%的出口数据,看似量大,但这些数据之间互不联通,很难形成系统化的知识体系。所以,现在最关键的不是AI能力的问题,而是如何把分散的数据和经验整合成可供AI学习的素材。我们正在做的重要工作,就是把数据和能力真正沉淀下来,形成可学习的知识体系。这才是当前最需要解决的问题。崔强:到底是利好还是利空?刚才沈旸提到大家都在用MCP协议,今早我看到AI大神卡帕西(AndrejKarpathy)的观点,他说内容服务、AI服务应该停止使用MCP。为什么现在有人追捧,也有人看不上?沈旸:其实MCP本质上就是个简单的API服务协议,让Claude等大模型能方便调用各种工具。在MCP出现前,大家也是通过API调用工具,只是Claude把它标准化了。现在有几百个开源软件和SaaS服务都支持该协议。现在AI领域有个特别的现象:以前推广一个开源项目可能要几年才能获得1万Star,现在两三天就能达到。如果你的软件不支持MCP、没有API,或者不能被AI抓取,就会面临被淘汰的风险。目前MCP有个局限,它原本为本地编程设计,没有考虑商用软件的计费问题。有些SaaS公司虽然支持MCP,但会在内部设置调用次数限制。MCP生态主要基于开源体系,未来可能出现两种情况,要么商业软件都加入这个生态,要么AI只使用免费开源工具,把商业软件排除在外。目前还看不清楚最终会如何发展。崔强:两位对这个话题有什么补充吗?郭舜日:沈旸提到MCP主要是开源体系,但它本质上是个协议标准。我们公司内部也在讨论如何利用MCP协议来提升内部AI能力。我们现有的SaaS软件已经积累了各种基础能力,比如制单、订仓、客户通知(通过微信、企业微信、QQ、邮件等)。通过MCP协议,我们可以把这些能力标准化,让AI来执行交互流程,减少对人工操作的依赖。因为AI本身就具备行业知识,这样能简化架构,快速实现对现有交互流程的优化和能力替代。虽然协议本身不难实现,但关键是大模型引擎厂商都接受这个事实标准。这是我们内部架构团队正在讨论的方向。崔强:有网友问沈旸:按照你刚才的观点,像金蝶这样的企业该何去何从?沈旸:这个问题很敏感。未来软件必须加速迭代,把所有AI能力整合进来。传统软件往往多年才做一次大升级,比如ERP通常5~7年才升级一次。这不是企业不想升级,而是测试和变更太复杂。现在必须提升迭代效率,把7年一次的升级周期缩短到2~3年。就像电动车对燃油车的替代,燃油车5~7年升级一次,现在电动车每年都有新款,智能驾驶等功能快速迭代。对金蝶这样的大公司来说,最危险的还不是现在,因为他们还有资源投入。但必须意识到AI带来的变革。如果意识不到这点,就会像燃油车面对电动车那样,两三年后就发现自己无力进行架构升级。整个组织的开发模式和文化都可能成为阻碍变革的因素,所以首先要从文化上进行重大改变。哪类软件会先被淘汰?崔强:做个极限假设,以你们的观察来看,哪类软件会最先面临风险,最可能被淘汰?杨芳贤:在企业服务领域,后发优势特别显著。软件行业不完全是技术驱动的,市场、销售、服务和交付等环节同样重要,技术领先性没那么关键。回到沈旸说的时间问题,如果只有半年一年,像金蝶、用友这样的企业确实危险。但如果有5~10年时间,它们都会转型成AI企业,就像金蝶已经从传统软件转型为SaaS企业一样。具体到哪些软件企业容易被淘汰?我认为还是看企业的组织能力和运营效率。与软件类型无关,组织能力弱、运营效率低的企业最容易倒下。软件企业无论是创新还是保守,最终竞争的都是组织效率。从品类来看,AI最先替代的是大量简单重复性脑力劳动的岗位,我目前看到的这是一个增量市场,可能会逐步蚕食与这些场景相关的,功能相对单薄的工具类软件。崔强:郭总,你怎么看这个问题?郭舜日:一般来说,有价值创造能力和组织力的企业不容易被淘汰。如果要具体说哪类软件最危险,我认为是单一功能的技术型、工具型SaaS。最直接的例子就是RPA软件。现在像Claude提出的MCP协议、OpenAI的Operator等功能,已经能用多模态技术直接观察屏幕操作,完全替代传统RPA。企业不再需要专业的RPA工具,就能轻松实现自动化。这对传统RPA公司是颠覆性的。以沃行科技为例,我们用多模态技术实现了OCR(光学字符识别)功能。传统OCR需要大量样本训练特定模板,而现在的AI多模态技术不仅识别率更高(达到99%),还能理解内容含义。比如我们与客户在珠海合作的项目,AI不仅能识别货运单据上的文字,还能理解运输条款和贸易条款的关联性,这是传统OCR做不到的。再比如机器人领域。以前波士顿动力的机器人需要编程各种动作规则,现在基于大模型的机器人可以通过学习直接执行任务,不再需要预先编写规则。这类技术进步会让很多单一功能的工具型软件失去存在价值。沈旸:我补充一下,什么样的软件容易被替代?像金蝶这样的跨部门软件其实比较难被取代,因为它们不仅是功能工具,更是组织内部达成共识的磨合过程。比如ERP系统,从前端销售到后端财务,整个流程是各部门长期磨合形成的体系。要替换这样的系统,组织往往不愿意改变。但部门级或个人级的软件就不同了:一,部门级软件未来被替代的可能性非常大;二,个人工具领域,会出现很多新的AI工具替代旧工具。由于AI能大幅提升效率,个人会愿意花钱购买AI工具来提升竞争力。在SaaS领域,如果只是针对某个非常细分的部门级应用,这样的软件会面临较大风险。目前还看不到这类软件能保持优势的路径。AI有哪些真正可落地的场景?崔强:目前有哪些让人眼前一亮、真正可落地的AI应用场景?去年崔牛会AI大赛时,60%~70%的项目都是知识库、陪练等方案。经过一年发展,三位看到了哪些有价值的原生应用?具体在什么场景?郭舜日:知识库确实是一个非常典型的场景,效率提升非常明显。通过向量化机制,特别是RAG技术的应用,可以把企业私有数据库建立起来。以我们企业为例,近10年积累的大量文档知识,以前都要去问人,个别专家还不一定掌握全量知识。现在我们通过内部知识库建设,相当于培养出一个机器人专家,可以沉淀企业十几年的知识。这块效能确实很明显。但难度我也要说明,绝对不是简单把文档扔进去就能产生好效果。因为存在大量知识冲突,需要花精力进行知识梳理、向量化处理。我们和AW工程师合作,做了很多知识增强的工作,才让效果真正显现出来。建议有一定沉淀的SaaS公司都应该在内部效能提升上应用知识库,但需要认真对待知识增强和梳理工作。第二点,我认为更重要的是企业内部组织对AI的理解和意识培养。我们现在每周都组织AI高层汇报会,要求全员使用AI。只有真正用起来,才能在具体工作中发现有价值的应用场景。这是比找单点应用更重要的事。在具体应用场景方面,AI在单点能力上的提升非常明显。以我们航运软件为例,以前处理各家船公司的运价导入非常复杂,需要业务理解,而且格式经常调整。以前要投入几周开发时间跟进这些变化,现在用大模型动态识别就能快速完成。还有财务对账,AI理解财务逻辑、处理非结构化数据的能力都很强。这些单点技术突破投入低但客户价值高,是SaaS厂商应该重点关注的。崔强:沈旸,你现在看到了哪些比较令人兴奋的应用场景?沈旸:最近最令人兴奋的是像Manus这样的AIAgent,能够从前到后完成闭环场景。这类场景从去年12月底才开始出现,之前完全没有这样的工具和体系。这种AIAgent能在内部集成浏览器、虚拟机等组件,最终运行出结果并验证可行性。这才是最重要的突破。过去我们做的很多工作,比如知识库梳理,其实更多是在为AI服务,而不是为人服务,因为AI对知识的理解能力远超人类。现在更有价值的是让AI完成特定环节的闭环,并验证结果是否正确。比如郭总提到的报价环节,如果能用AI完成并验证,就是重大进步。虽然目前AI处理数据的速度和精度可能不如传统软件(比如传统软件半秒完成的任务,AI需要10秒~20秒),但这不重要。一旦证明可行,后续肯定会有人优化性能。目前这类应用主要在科技公司和工程师团队中测试,但我预计3个月左右就会在各行业普及,用于POC测试。开源版本也会很快出现,我们内部也在测试类似的开源方案,一旦实现闭环,就能清晰看到这个技术的终点在哪里。崔强:一个再小的业务,你也要把它闭环做完,能单独搞定它,对吧?沈旸:对。但是很多事情,比如像知识库,它可能就并不是一个真正的闭环。因为最终你还是依赖于人去评判做得好不好,或者要人去落地完成。对我来说这就不是一个闭环的事情。杨芳贤:大模型在企业的落地场景我们见得比较多,说知识库是一个场景,我认为这是一个误读。今天行业里大家讲的知识库,本质是让大模型掌握企业的知识和流程,替代重复性脑力劳动。但这个说法太泛了,需要拆到具体解决什么问题,投入产出比是怎样,这才能算是一个落地的场景。比如:客服助手场景、在线客服场景、对员工服务的共享服务中心、业务陪练、加盟商指导、数字教练、客户筛选、客户孵化、邀约到店等等。这些场景的第一阶段目标都是成为员工的数字助理提升效率,当数字助理有了极高的准确率和采纳率后,就可能直接替代部分真人工作,这些单点场景在有一定规模的企业里,其投入产出比非常高。除了知识库,智能工单在很多大企业也应用得特别好。例如:通过RPA机器人自动感知微信上内外部聊天内容,自动创建、处理、流转工单,包括对工单数据进行分析和预测。把业务专家的能力萃取出来后,它的感知和分析能力会比人更稳定、更可靠。我们有客户的客服团队有几百人,水平参差不齐,借助AI后相当于每个客服旁边都坐着一位业务专家,直接给出85分以上的意图识别和处理建议。我再举个具体的审核场景例子。我们有个客户去年一期项目用AI支撑近千家经销商,今年的二期项目做业务审核。他们目前有500人的业务审核团队,预计今年业务量要翻倍。如果不引入AI,他们的客服审核团队要再招500人。在他们的审核流程中有六个步骤,例如:信息审核时要处理不同区域的电费划转单、各省不同的购售电合同、投资项目备案证等;技术审核时要检查光伏组件安装是否被遮挡、施工规范是否符合要求等。过去一个资深审核员处理一单要15~20分钟,现在用AI辅助1~2分钟就能搞定。企业里有很多依赖资深的业务专家的场景,这些业务专家的知识、经验和流程萃取出来之后,AI掌握后往往比人做得更好,而且不需要考虑人员流动的问题。过去两年,我们看到很多类似的场景,企业规模越大、同一个岗位影响的人越多边际成本越低,AI带来的ROI就越大。比技术和产品更重要的是方法论崔强:现在很多SaaS企业都在考虑AI落地的问题。AI到底要怎么帮助我们这些SaaS企业实现真正的落地?现在很多厂商都想要尝试,但是不知道具体该怎么开始,需要投入多少资源,以及能带来什么样的实际价值。郭总,听说你们已经在做这方面的落地实践,马上要发布新产品了,能具体说说吗?郭舜日:我结合我们的实践经验来说说。从技术实现的角度来看,AI落地可以分成三个主要的阶段,每个阶段的难度和投入都不一样。第一个阶段是提示词工程(PromptEngineering)。这个阶段主要是利用现有的大模型技术,通过优化提示词来解决具体的业务场景问题。根据我们的实践,只是做好提示词工程就能解决80%左右的常见业务场景。比如我们现在做的OCR场景,就是通过多模态技术加上精心设计的提示词,已经能够完美替代传统方案。还有我们即将发布的AI助理产品,以及像Manus展示的那些闭环应用案例,核心都是基于提示词构建的任务流程。杨芳贤:不过要说明的是,提示词工程在POC阶段可以用来快速场景验证,应用到生产环境,光靠提示词是不够的。郭舜日:确实是这样。所以,第二个阶段就是RAG增强。这个阶段难度会大一些,主要是通过知识补充和能力增强来解决更复杂的业务问题。我举个具体的例子,很多企业都在用BI系统,但老板们经常用不起来,因为每次想看个报表都得找数据工程师专门配置。我们现在做的方案是,通过RAG技术把历史报表数据向量化,当老板说“我想看最近一个月销售对利润的贡献情况”时,AI就能自动生成相应的复杂报表。知识库建设也是类似的原理,但这里特别要注意向量化的质量,这个很关键。第三个阶段就是模型微调。当业务场景需要带入大量上下文信息时,可能就需要对基础模型进行微调了。这个阶段的投入会比较大,因为要构建自己的专用模型,硬件投入可能要几十万到上百万。所以,要不要走到这一步,需要仔细评估业务价值。我们内部现在就是按照这三个阶段来规划AI应用的,从提示词工程开始,逐步推进到RAG增强,最后根据业务需要决定是否进行模型微调。崔强:芳贤,刚才有不同意见,你们看到的相对成熟的落地方法论是什么?杨芳贤:在参与运营LangGPT提示词社区时,我们和客户一起共创了一套被广泛认可的大模型落地应用“三步走”方法论。我们认为企业落地大模型可以分三步走。第一步是“工作+AI”。就是让大模型提升全员的工作效率。很多人认为大模型只在企业内少数岗位,例如:文案、设计、开发等岗位提效显著。其实不是这样。我们看到在企业内,每一个部门、每个岗位,借助AI都能获得不同程度的效率提升,只是有些岗位能提效5倍~10倍,而有些可能只提效5%~10%。而且落地“工作+AI”几乎没有门槛,甚至零投入,但需要企业有AI文化,老板有AI思维,在企业内部营造AI的氛围,鼓励大家工作中能用上的AI工具都尽量能用上。第二步是“业务+AI”。就是让大模型掌握企业的知识和流程成为AI生产力。今天基于大模型构建AI生产力有两种范式,一种是替代简单的重复性的脑力劳动,另一种是辅助创造研究型的脑力劳动。让大模型掌握企业的知识和流程不是和大模型对话或者将企业的知识一股脑的上传就完成了,将企业的知识进行清洗和加工是前提,上线后持续的调优是效果越来越好的关键步骤。让大模型像刚入职的新员工一样,先掌握基础的企业知识和作业流程,然后再基于数据持续的迭代。就像招个985毕业生,在熟悉了公司的知识和流程后才能上岗,在日积月累的工作中能力不断的提升。第三步是“AIx业务”。这个阶段是以AI为基础重构产品和服务流程。就像今天所有企业都是互联网企业、电商企业一样,未来所有企业都会是AI企业。也可以分享一下我们在实际落地应用的最佳实践的几个关键点:一是企业内领导层、管理层和骨干员工对大模型的能力边界要有统一的认知。今天我们大多数对大模型的了解来自短视频和各种自媒体的推送,自媒体为了抓眼球往往只报道极端条件下的成功案例,与实际的落地应用有很大差距。二是了解行业内的先进企业及跨界的先进企业的真实案例拆解。不只是看媒体的宏观报道,而是看企业配置了什么资源,真实做了什么、踩了什么坑、投入产出比如何。三要先聚焦单个场景进行试点。现在很少有企业有专业的AI团队,临时组建的AI虚拟团队一定要先集中资源做好一个场景。一个场景验证成功后,代表这个企业、这个团队有驾驭大模型的能力,一个场景拿到超出预期的效果再扩展到其他场景会容易很多。今天落地应用大模型技术和产品很重要,比技术和产品更重要的是落地方法论。相比于已经发展了20年的数字化,大模型进入到产业才2年多时间,能力变化也很快。落地应用遇到挑战是普遍现象,全球范围内都缺乏成熟案例,最顶级咨询公司也是在探索阶段。在这个过程中,找到正确的落地方法和靠谱的落地团队比单纯追求技术更重要。别做“半吊子”产品崔强:沈旸,你刚才提到自媒体的局限性,但我觉得新媒体人还是有价值的,毕竟不是每个企业都有像你这样的专业CIO。你怎么看这个问题?能不能分享些实际踩过的坑?沈旸:我举个去年底的例子。我们尝试做一个智能会议室预定场景,听起来很简单:让AI根据“朝南”“看海”这种需求自动选会议室。这需要解决几个问题,给会议室打标签、让AI看懂平面图方位、处理企业微信里的联系人(包括重名情况),还要解析“下个月第二天”这种模糊时间表达。我们半天就搭了个原型,但实际使用发现问题很大——时间理解准确率70%,地点匹配80%,人员识别80%,三个维度一叠加,结果完全没法用。后来我们没急着调模型,而是做了两件事,一是用AI生成测试数据集,比如针对时间维度造了2000多条“下周二”“大下周”之类的样本;二是拿这个数据集持续测新模型,直到去年10月发现某家模型的时间解析突然做到100%准确(虽然理论上大模型是概率模型,但实测结果就是全对)。如果一个场景一周内搞不定,说明要么团队能力不足,要么技术还不成熟。去年我们做了一个类似Manus的金融版AI工作流,但当时开源工具链残缺,评估要缝上百个接口,直接放弃。技术迭代快得很,去年6月国内能私有部署70B模型(具有700亿个可训练参数),年底Claude和DeepSeek出来又是质变。现在每季度回头测旧场景,发现很多过去做不到的现在能做了。我们最后把AI深度嵌到企业微信,员工不用跳转系统,直接聊天界面就能用。比如设计师做了个吉祥物生成工具,运营同事机器人10秒出图,以前找设计部排队得等半天。所以,要么做成“开箱即用”的闭环(比如集成到钉钉/企微),要么明确测试标准,耐心等机会,千万别做个半吊子功能,既浪费资源,又透支团队信任——用户试两次不好用,以后连AI本身都不信了。“数据安全”不再是企业落地大模型的主要障碍崔强:一个网友的问题:企业在引入AI过程中如何防护数据安全,有哪些泄露风险点?特别是需要私有化部署的企业,目前他们可能更关心这个问题。我看你今年给很多大企业、国央企讲过课,他们肯定很关心安全问题。这个有解吗?怎么解?杨芳贤:关于大企业通过私有化部署来解决数据隐私和大模型的安全问题,有两个维度的私有化:第一个是中间层应用私有化部署,比如Agent平台,语料向量数据库部署在内部,但模型层通过开发者接口接入。这种情况下,大模型厂商用自己的商业背书承诺不会把这些接口数据用于模型训练。如果不是涉密部门,这种模式是值得信任的。就像今天我们使用公有云一样,对大模型厂商来说,单个企业的数据意义并不大,他们愿意用商业信用做背书,这个方案是OK的。所以企业可以把涉及企业内部流程、知识的Agent平台,语料向量数据库部署在自己本地。当然对于党政机关、军工企业、涉密机构等特殊部门,他们需要基座模型都做私有化部署。这也是为什么今年DeepSeek开年之后就出圈了,各行各业都非常关注。因为过去的开源模型和国产模型能力跟OpenAI还是有一定的差距,但DeepSeek的R1模型已经接近甚至在某些中文场景下超越了OpenAI的o1模型。而且它开源后可以做私有化部署,这就解决了大家过去只能用少量脱敏后的数据测试体验一下,现在可以大规模的应用在工作生产环境了。如果基座模型也做了本地化部署,那么它的安全问题其实和数字化时代的安全管理非常类似。针对大模型也有一些额外的安全防控点,很多安全厂商也给出了解决方案。所以,安全不是落地应用大模型的主要障碍。前两年大家还在讨论要不要上、怎么接入的问题,而今天已经变成讨论怎样借助大模型构建AI生产力了。今年,我们看到很多企业都在找具体场景,思考怎样融入业务。数据安全现在对企业落地大模型来说,已经不是一个很重要的门槛了。企业“上云”,还是“下云”?崔强:今天的DeepSeek对企业软件到底是利好还是利空?回到SaaS这部分,DeepSeek会不会使得业务部门倾向于自己私有部署,这会是一个“下云”的趋势吗?会不会影响现有SaaS软件公司的业务?郭舜日:数据安全确实是非常敏感的问题。我们这些做了十几年的SaaS服务商,在安全方面都有保障和承诺。像我们服务的中国邮政、民航等大型企业,500多个分公司、3000多个账号都在我们平台上运行,已经建立了对SaaS软件的信任。但AI带来的新问题是,当数据都在公有云平台时,通过大数据挖掘可以分析出企业自己都还没总结出的商业逻辑和规则。去年9月,我们去美国考察时发现,SAP的很多大型客户正从公有云转向私有云部署,就是担心公有云厂商可能利用平台数据挖掘能力来服务整个行业。这对数据贡献最大的企业来说确实存在战略顾虑。不过对中小企业来说,它们既没有足够数据量,也没有能力进行独立的数据挖掘。所以我认为会有两个趋势:一是超大型企业可能会选择私有化部署,出现“下云”趋势;二是大多数企业还是会相信SaaS服务商,因为单个企业的数据价值有限,而SaaS厂商可以提供行业级的AI赋能。崔强:沈旸,从客户角度你怎么看?“下云”和“上云”会是什么比例?沈旸:我以前在企业提出过“敏变稳”架构:SaaS软件+开源低代码+商业ERP套件。现在AI可能会替代原来的低代码场景,业务部门不再需要拖拉拽,直接通过AI对话就能调用API获取数据。对于SaaS软件来说,如果软件不持续迭代,客户很可能会用AI在内部复制一套。很多客户其实只用到SaaS软件的少数功能,以前用低代码重建很困难,但现在AI让这事变得简单。未来,要让大企业真正使用SaaS,必须做到功能持续迭代,提供实时更新的数据服务,比如提供股票信息的SaaS,因为数据实时更新才有价值。如果软件功能或信息常年不变,客户就没必要用SaaS。杨芳贤:从企业视角看,DeepSeek这类模型的本地化部署是增量业务,不会影响企业现有的云策略。算力也不一定要本地部署,也可能在云计算厂商租用算力私有化部署,而且算力成本正在急剧下降,未能相同能力的模型尺寸会越来越小。未来的趋势是云侧的大尺寸模型和端侧的小尺寸模型的混合协同架构,所以云上的比例未必会下降。从SaaS服务商角度看,过去依赖闭源大模型,现在可以用开源模型开发更匹配场景的应用,模型部署在云端,通过集中调度能大幅降低成本。所以不一定是“下云”,部分业务“下云”,但更多业务会“上云”,整体对云服务还是利好的。崔强:今天我还见了个投资人,他们非常看好这波Agent浪潮会催生全新的服务形态。就像沈旸说的“ServiceasaService”,关键是要能交付明确价值的服务。我们把服务分为两类:开源(创收)型和节流型,但都需要清楚计算出为客户解决了什么问题,创造了多少价值。本文来源:36氪文章转载于其他网络,如有侵权请联系我们及时删除
-
25
04/19
科技大厂掀起医疗界的AI革命,谁更有胜算?
医疗AI的改革正如火如荼,多家大厂纷纷下场,结果又会鹿死谁手?近两年,在大模型领域,国内外科技巨头在医疗赛道的布局都持续加速。王小川甚至曾高调宣称,医疗是“大模型‘皇冠上的明珠’”。医疗场景对AI的需求的确很高:数以万计的药品、繁琐又重复的阅片工作,乃至厚厚一摞专业书籍和临床指南……借助“硅基生物”的能力解决“碳基生物”的“看病贵看病难”“医疗资源不均”等问题,毫无疑问代表着科技的未来。正因如此,自最早的“互联网+”开始算起,从影像到病理诊断、从手术机器人到医疗大模型,AI在医疗领域引起的投资热潮和市场关注始终不减。但客观上,医疗AI的真正落地,离不开技术、产品、医患教育、政策监管等多维度的合力。这也是过去10多年来,医疗AI概念下的许多企业始终没能突破商业化瓶颈的原因。如今,随着大模型技术又一次突破边界,过去困扰医疗AI企业的诸多问题,有望迎来一个新解法。各大企业加码布局,或许只是开始。在这场由大模型掀起的医疗AI“革命”中,谁在抢跑?谁能成功?一、生成式AI,可能改变哪些医疗问题小到基层卫生院,大到头部三甲,医院争相部署自己的大模型应用,堪称2025年春节后医疗行业的第一个“奇观”。坦诚说,医生群体中虽不乏乐于拥抱新技术者,但“保守派”仍是大多数。相比于有事问AI,他们更信任从埋头苦读和临床实践中获得的“真知”。那么,认知是如何打破的?韩伟如今是首都医科大学附属北京中医院的信息科主任,最近,他们接入了蚂蚁医疗大模型,其具备医学思维推理能力与多模态交互,“不仅能给出解决方案,也会呈现思考过程”。“这对医生而言具有特别意义,因为我们想要的不仅是一个结果,更希望能参考它的思路,将来在遇到同类问题时,可以按照这个思路去思考。”他以一位意识丧失、无法进行心梗诊断的患者举例,往常,医院在接诊这类病例时只能召集多学科会诊,存在耗时长、效率低下等问题。但这一次,大模型只是根据患者既往接诊数据和病史情况,就逐步完成了病情分析和诊断建议,并对潜在风险进行了提示。“整个思路和结果与我们找的两位真人专家的诊疗建议基本一致。说明大模型的确可以帮我们省去一些会诊步骤,让医生将更多诊疗时间集中在病人身上。”韩伟解释。这种“AI更好用”的体验背后,主要得益于大模型的技术升级。有医疗大模型从业者介绍,如果对比两代AI技术,此前2.0时期的医疗AI更像是“判别式AI”,更擅长基于影像、推演数据做医学诊断问题;而基于生成式大模型的3.0时期,则是在做“序列预测模型”,即可以根据个人历史健康数据序列,预测未来的健康状态和疾病发展情况,进而形成个人的健康发展轨迹。而这道轨迹,对“个性化治疗和精准健康管理极具价值”。换句话说,过去,人们虽能感受到AI带来的就医服务升级(如AI预问诊),但体验上好像总差了点意思,是因为医疗服务的供应并未真正发生变化,核心劳动力仍然是医生。而如今,大模型技术带来的“生产力变革”,得以让AI开始深入医疗前端,通过更高质量的辅助能力让整个供应资源得到扩展。“有些变化看起来很小,比如远程会诊效率提升10分钟,但对患者而言就抢回了不止1小时。在过去与医疗服务从业者的深度合作中,我们也更加确定了AI医疗的价值。”蚂蚁方面解释。不再是“取代医生”或“爆改医疗”,10余年探索之后,科技公司们终于寻找到了AI技术与人类医生间的“平衡点”,即通过推动医疗资源扩容与服务普惠,比如更快缩小各级医院之间的诊疗差距、提升医生看新文献、研究病例、病患管理等方面的效率,让每个人都能拥有自己的高质量“AI私人医生”。尤其是今年,DeepSeek的“出圈”,更以汹涌之势在专业医疗机构、普通大众之间完成了一场“AI使用教育”,让AI更深入地渗透进医疗场景成为可能。这份潜力,为各大科技巨头、互联网公司再一次“押宝”医疗AI注入信心。二、取胜关键:医疗资源的争夺战当大模型技术为从业者带来了足够信心之后,下一个问题随之到来:如何让自己的产品在诸多竞争者中胜出?在医疗AI领域的诸多探索和叙事中,不变的一点始终是以医院为核心的医疗资源争夺。训练模型需要诊疗记录、影像报告等高质量医疗数据,培养模型的“医生”思维需要在具体科室里做针对性训练……换言之,谁覆盖的优质医院更多,胜算自然会更高些。新老玩家中,对于代表了老玩家的老牌医疗信息化企业、设备厂商而言,既往积累的渠道优势自然成为手中最大的底牌,而作为新锐玩家的科技公司们,不少则选择利用自己在算力、算法上的优势,通过和头部医院合作开发大模型来弥补这部分短板。但与医院的深度结合需要时间,无论是哪一方参与者,对医院的覆盖动作其实都是迟缓且有限的。是否有一种更轻盈些的方法?诸多案例中,蚂蚁的“长板”或许是略微不同的一种。蚂蚁最早的互联网医疗经验,应该从2014年在广州妇女儿童医疗中心开通支付宝挂号和缴费开始算起。截至目前,借由支付环节的打通,蚂蚁已联合3600家医院、服务超8亿用户。时至今日,仍然很难说有第二家互联网医疗公司能够复制这点。天平的一端面向医院:通常情况下,医院对软件类企业放开的合作往往只是一个小端口,比如面向某个科室。但在支付这个“总环节”上,整个医院的系统流程一定是向支付宝开通的,这意味着与医院拥有更深的合作基础。这也为蚂蚁将大模型等更深度介入医疗服务的产品带入院内,奠定了一定基础。天平的另一端则面向用户。互联网是患者获得医疗信息最重要的渠道之一。不过,常规的搜索平台、内容平台虽数量众多,但能带来优质使用体验者寥寥。直到今天,国内其实都尚未出现一个足够完备且深受患者信赖的互联网医疗健康平台。而依托于支付宝“超级平台”提供的独特落地通道,蚂蚁其实已经先一步完成了用户使用支付宝解决健康问题的市场教育。如今,许多患者已经习惯了不带医保卡,打开支付宝也能在医院签到候诊、缴费拿药。而支付宝首页的“医疗健康”模块里,也已聚合了全国九成以上的三级医院,覆盖买药、体检等上百种服务,为用户提供更便捷的健康服务体验。归根结底,在核心医疗资源的“抢夺”战里,所有参与者其实都是在用自己之前铺的渠道,做更擅长的事情。诸多玩家中,蚂蚁凭借此前在互联网医疗领域的长期深耕,或许会成为一个“全面布局、深度下场”的样本。三、联动医院、医生、用户,构建“生态壁垒”是不是解题新思路当掌握关键的医疗资源后,再下一步是什么?过去,不少医疗AI企业在从事产品开发时的问题在于,受限于经验和资源,往往会从某个单点切入,比如围绕放射科做AI阅片、辅助诊断等。而整个院内医疗体系庞大且复杂,牵扯的链条很多,这样“单点切入”的方式能解决的问题始终有限。正因如此,我们可以看到,一些医疗AI概念企业、大模型创业公司,的确做到了在短期内通过技术或商业模式上的创新在市场中突围,但很难构成长期壁垒。医疗AI竞争“内卷”的态势下,丰富的产品矩阵和生态“护城河”,或许是更难被复制的决胜关键。对此,蚂蚁方面也对36氪提到,大模型即产品,很多场景下的功能点都可以在一个对话框里解决掉。但在医疗行业,一个产品很难“打天下”,不同场景下AI能办的事不一样,满足需求的逻辑也不一样。因此,“我们从2023年开始研发医疗大模型时,就决定要和医疗机构深度合作,介入到完整的传统医疗场景中”。蚂蚁宣布整合现有资源,进行以医疗大模型为基础的“三端一体”战略布局,完成医院、医生、用户三大产品体系升级,正是出于这个原因。所谓“三端一体”,即面向医疗机构推出可供其直接部署的“大模型一体机”全栈式解决方案;面向旗下好大夫平台上28万注册医生的AI医生助手工具,提供文献检索、科研助手服务,以及服务于用户一侧的“AI健康管家”。这样的布局,并非是盲目将摊子铺开,每一项针对的都是当下某个医疗环节中的痛点。以“AI健康管家”为例,这项服务核心定位于服务普通用户找医生、读报告、陪诊等日常刚需的医疗服务。自去年9月上线的半年多来,该产品服务的用户量已达到4000万。值得一提的是,整个过程中,蚂蚁也不是一味自己“死磕”,而是邀请行业伙伴进行深度共建。比如在硬件部署上,蚂蚁就联合了华为、阿里云等厂商推出“训推一体,开箱即用”的轻量化设计;在大模型技术能力之外,则携手医疗机构一起实现应用层面创新,比如和浙江卫健委联合推出的官方AI健康应用“安珍儿”,现已覆盖超1000家公立医院、服务超3000万人次。过去,单打独斗难有出头之日。如今,平台型企业依托“场景+技术+开放生态”的独特路径布局,能不能为医疗AI搏出一个未来?本文来源:36氪文章转载于其他网络,如有侵权请联系我们及时删除
-
25
04/19
AI时代的软件开发:提示驱动开发
从语法流畅到架构理解的范式转移编者按:大模型的文生文能力正在引发软件开发的范式转移,下一代的软件开发将由提示驱动,开发者不会消失,但沟通能力与战略思维会变得更加重要。我在感恩节期间开发了一个应用,很快就收获了1000名用户,并在圣诞节前实现盈利。但最疯狂的是……我本人一行代码都没写。那都是我一步步指导大模型(LLM)写的,我们一起开发了一个全栈的NodeJS/React应用,这个应用带有PostgreSQL数据库,实现了与Stripe的集成,托管在Heroku上,用SendGrid发送电子邮件,用CloudFlare进行DNS处理。此后我一直都在思考提示驱动开发的事情,琢磨着该怎么做才好,思考其对行业发展的意义。以下就是我的想法。▋概要什么是提示驱动开发(PDD)?工具与工作流成功的心智模式行业影响▋什么是提示驱动开发(PDD)?从本质上讲,PDD是一种开发工作流程,开发人员主要促使LLM生成所有必要的代码。让我们将其与传统开发进行对比。PDD本质上是这么一种开发范式:开发者主要通过向LLM提供提示(prompt)来生成所有的必要代码。我们来跟传统开发模式对比一下。传统软件开发的高阶流程通常是这样的:1.开发者收到需求2.开发人员在IDE本地迭代代码变更3.开发者提交代码变更以供审查4.另一位开发者审查并合并变更传统开发的高阶流程相比之下,PDD有几个关键区别。首先,LLM会参与并编写主要(甚至全部)代码。其次,开发者专注于提示工程和代码审查,而不是自己编写代码。除此之外,其余流程大致是相同的。高阶提示驱动开发流程:1.开发者收到需求2.开发者将需求分解为一系列提示*3.LLM针对每个提示生成代码4.开发者审查LLM生成的代码*5.开发者提交所有变更以供审核6.另一位开发者审查并合并变更提示驱动开发高阶流程*我想强调几个步骤。1.“将需求分解为提示”是一项新技能,需要学习和练习。我会在“思维模式”章节讨论怎么做。2.“审查LLM生成的代码”至关重要。你不会不假思索就合并进人工编写的代码,所以对LLM编写的代码也别这样做!▋给谁用?简而言之,每个人。我曾经跟一位资深工程师交流过,他们正在用这种做法开发极具创新性的技术。我的一位朋友甚至用PDD从头开始做出了自己的编程语言。我也接触过一些非技术人员,这些人能开发出功能完备的原型,甚至有人还部署到生产环境并吸引到用户了。LLM最惊人的特性之一就是大幅降低了编程门槛,让零技术经验的人也能生成可运行的代码。但我认为有类人群特别适合这种技术:那就是具有技术背景但转型从事产品、战略或设计工作的人。这当中包括技术产品经理、技术设计师以及工程经理等。由于我的个人背景与此类似(开发者→用户体验→产品经理),所以我对PDD的热情可能有些偏颇。这种技能组合之所以能够从PDD获益,是因为这些人可能对软件工作原理具备了架构上的理解,但对编程语法却不太熟悉。由于LLM可以帮忙处理语法,因此语法不熟练不再是制约因素。通过PDD,他们可以高效、无拘束地进行开发。▋工具和工作流基础模型以下是可编写代码的一些LLM。随着新模型不断被训练并部署到市场上,这个领域会非常活跃,充满活力。就PDD而言,需关注:·我通常用Claude3.5Sonnet、GPT4o和GPTo1·对各种模型的编码能力进行测试的基准测试有很多。选择模型时请参考最新的基准测试这些基准数据可能已过时聊天工具ChatGPT,Claude,Gemini常规聊天工具可作为PDD的一个选项。就我个人而言,我更喜欢大模型原生IDE,但我访谈过的几位开发者都用了聊天工具,因为比较简单。因为要给LLM提供一切适当的上下文,然后还要将输出粘贴到代码库中,这种做法的人工操作更多,但用起来是没问题的。其工作流如下:1.给LLM写提示2.从代码库中复制所有必要的代码上下文,并将其作为提示的一部分3.复制LLM生成的代码4.将代码输出粘贴到代码库中的正确位置虽然我的主要工作流不是这样,但PDD过程中也会偶尔使用。如果要尝试这种方式,强烈推荐使用ClaudeProjects或ChatGPTProjects功能,你可用来组织文件和聊天记录,极大提升上下文管理效率。ChatGPTProjectLLM原生IDECursor、Windsurf、Bolt、v0、Replit工具这些工具彻底改变了游戏规则。它们将LLM集成到IDE中,相比聊天模式有两大优势:1.为LLM提供代码上下文非常容易2.LLM能够直接在IDE中编辑你的文件这显著加快了代码生成反馈循环,无需反复复制粘贴到IDE内。此类工具层出不穷,我个人用的是Cursor。说实话,这些工具大同小异:Replit可自动部署代码库,Windsurf与GitHub集成等,但核心价值都在于简化PDD的用户体验。我强烈建议选择个LLM原生的IDE然后坚持用下去。在各种选项之间切换的成本非常低。关键要培养如何编写出色提示的技能,而不是记住特定IDE的所有功能。所以选好一个,坚持用下去,聚焦在提示上。Cursor,注意右侧的“Composer”窗口我的工作流我在工作流结合了ChatGPT与Cursor的使用。大致分解如下:·80%时间与Cursor交互:通过Composer功能向Claude发送提示,审查接受/拒绝修改。重复此过程。如有错误,我们会一起解决。·15%时间把GPT4o当作技术思考伙伴:处理复杂变更或新功能开发时,要求其提供技术方案并创建任务工单,以此作为提示输入给Cursor,然后进入Cursor工作流·5%的时间使用GPTo1进行深度规划:启动新项目或实施系列复杂变更时,GPTo1可生成更高质量、更长篇幅的输出(例如一次性生成十余个任务工单)我对PDD工具使用的大致分布情况▋成功的心智模式更好的提示==LLM生成更好的代码。垃圾进,垃圾出,对吧?每个人的目标、环境和技能组合都不一样。所以这里不会告诉你究竟该怎么写提示,而是会提供一些思维模式,这些思维模式可提高提示质量,进而提高生成代码的质量。LLM是刚加入本项目的初级开发者LLM拥有令人难以置信的编码能力。但是,如果你是PDD新手,我强烈建议你先想到这一点。告诉自己,LLM是刚接触该项目的初级开发者。在编写提示时,要考虑到如何指导这类人。错误示范:“给我写个可以让朋友们发布照片并互相关注的app。”这样绝对行不通。别这样,你得给出很小、非常具体的变更。你可能还要提供各种相关的文件,并说明关于产品是什么以及别人会怎么用的一大堆信息。这是思考如何给LLM提示来生成代码的正确方法。这样不仅会生成更好的结果,还会迫使你更好地给出提示,你的关注点应该在这里。更好的提示==LLM生成更好的代码。垃圾进,垃圾出,对吧?表现得像自己就是一整支产品团队一样给LLM提供的东西不用局限在技术背景上。不妨设想自己是产品经理、设计师、开发主管以及QA工程师,你可以就工作范围提供意见。你要尽可能地模仿角色,但也不要用力过度。除了技术指导之外,你还应提供:·用户故事·业务目标·UI描述·UX流程描述·测试计划把这些类型的附注添加到提示中可以给LLM提供更全面的上下文,也能提高其实现预期目标的能力。上下文、具体性及范围这是调整提示时需要考虑的三个变量。这些变量跟代码质量的关系很简单。为了提高LLM生成代码的质量,你需要:·增加提供的上下文的信息量·提高请求的具体性·缩小变更范围为了获得最佳输出,你需要上下文丰富、特别具体,范围很窄以下是我对这些术语的定义……上下文是提示提供的代码库片段或文件。·上下文不充分:“在后端进行这些变更”·上下文丰富:“调整backend/routes/user.js文件的getMarker函数。文件在这儿,它一般会进行交互的另外3个文件在这儿......”具体性是指请求定义得有多明确、多精确。·不够具体:“当用户单击提交时,将其提交添加到feed中。”·非常具体:“当用户单击提交时,调用saveSubmission端点将提交存储到数据库内。保存后,自动调用loadFeed函数刷新前端的feed,让用户能够立即看到自己的提交,而无需重新加载页面。”范围是要求LLM一次性变更多少东西。范围很广:“添加一个设置页面,用户可以在该页面管理和更新账号。”范围很窄:“在设置页面上添加一个切换按钮,用户可以将自己的帐户设置为私密或公开。”请记住,要想得到最佳输出,上下文得丰富、请求要足够具体,范围不要太宽。是,写成这样需要时间,但写代码也一样。提示成什么样你得根据自己的技能组合来权衡。LLM写代码也会有bug(就像人类一样)知道不,LLM并不完美。我和曾经尝试过PDD的人聊过,“因为AI产生了一个bug,所以我就放弃了。”我建议你不要期望过高,只需知道LLM会时不时产生bug就行了。这是正常开发过程的一部分,那怕是人类写代码也会出错。这也是为什么在接受LLM代码之前对其进行审查和测试如此重要的原因。不要盲目地合并它所做的变更。人写的代码你不会无脑合并,那为什么LLM写的代码你就会无脑合并呢?如果你遇到bug的概率超过5%,请使用上述建议重新审视你的提示技术。人写的代码你不会无脑合并,那为什么LLM写的代码你就会无脑合并呢?▋行业影响门槛提高了常见误区认为LLM将取代开发者。更准确的认知是:对所有从业来说门槛提高了。对于技术人员来说,熟练掌握一门编程语言已不再足够。因为这项技能可以100%外包给LLM。现在,开发者需要对所用的代码库有深入的架构理解,并且需要具备强大的写作技能,以便能够准确地向LLM表达所需做出的变更。对于非技术人员来说,能够给开发团队编写需求已经不够了。相反,他们还得会开发可在本地运行的功能齐全的原型。为此,他们需要具备足够的技术知识,好向LLM描述所需的内容,还得知道如何启动本地Web服务器。低阶工作不会消失,但工作性质会改变最近有很多关于入门级(甚至中级)开发者角色被AI取代的讨论。我知道他们想说什么,但我认为那是不对的。其实他们是想说LLM现在已经能做我们目前认为需要入门级或中级开发者才能完成的工作了。这一点我大抵是同意的。但认为这些角色会消失的想法是只见树木不见森林。消灭初级和中级岗位会导致开发者的人才断代。现在那些高级开发者总有一天会退休的,而由于没有人才储备,我们没法用足够快的速度去替换他们。中级开发者的定义肯定会发生变化。他们需要完成的任务类型会变得更加复杂。他们可能会使用LLM来生成大量代码。而且,他们还需要对产品有深入的架构理解,并具备强大的书面沟通能力。软件开发的学法不一样了2010年代我刚开始学习软件开发时,概念学习的顺序大致是像下面这样的:1.基本概念(变量、数据结构等)2.语言语法和特性(我学过C++、Java、LISP、Ruby、JavaScript)3.协作(Git)4.架构模式(前端/后端、MVC)5.之后我转行去做产品了我预计现在对于学软件的人来说会发生一些变化了。首先,他们不会像我一样去学5种编程语言。没有理由去做这样的事情了。他们可能会学习一种语言,然后靠LLM去学习其他语言和框架。其次,他们会学习架构模式的时间会提前,可能学习基本概念的同时就开始学了。这是因为你必须掌握这些知识才能编写出高质量的提示。第三,他们从第一天开始就会学习使用LLM,逐步练就非常强大的书面沟通技巧,从而写出高质量的提示。整个过程大概是这样的:1.学基本概念+架构模式2.学一种编程语言+提示写作(语言可能是python或Javascript,会通过提示来学习)3.合作4.......等等小一点、新一点的公司会率先采用提示驱动开发改变很难,组织惯性会妨碍成熟的大型科技公司大规模采用这些做法。他们需要更长的时间才能共同建立起对LLM代码质量的信任感,才能理解提示质量才是更重要的因素,才不会感到受到LLM的威胁,并最终接受这些工具。小一点、新一点的公司有充分的理由从第一天开始就成为AI原生企业,没有理由不这样做。他们没有历史负担,很快就能学会如何将其融入自己的独特文化,并以业内前所未有的速度交付产品。这种情况正在上演,Headstart等公司就是典范。▋结论提示驱动开发(PDD)是一场软件开发变革,强调的是对架构的理解而非语法流畅。通过利用LLM,开发者和非开发者都可以更快、更高效地开发出产品。不过,LLM生成代码的质量在很大程度上要取决于提示够不够清晰,够不够具体,因此,沟通能力与战略思维至关重要。本文来源:36氪文章转载于其他网络,如有侵权请联系我们及时删除
-
25
04/19
又一家AI独角兽出现,1/4的美国医生都在用,用互联网的思维做AI医疗
又一家AI独角兽出现,1/4的美国医生都在用,用互联网的思维做AI医疗披着AI医疗外壳的互联网公司又一家新晋AI独角兽出现了。今年2月,AI医疗公司OpenEvidence拿下了红杉资本的7500万美元融资。这次融资后,OpenEvidence的10亿美元,成为了新的AI独角兽。虽然说干着AI医疗的活,但OpenEvidence的经营策略更像一家消费互联网公司。与大多数AI医疗公司走toB道路不同,OpenEvidence却把目光放到了C端医生群体,向所有医生免费开放,通过广告产生收入。不仅商业模式像,OpenEvidence的用户增长也很“互联网”。据公司创始人DanielNadler透露,现在1/4的美国用户医生已经在用OpenEvidence。而一年之前,这一数字几乎为零。这种迅速的市场渗透速度在医疗领域极为罕见。也难怪,红杉合伙人PatGrady会评价说,OpenEvidence更像是一家披着AI医疗外壳的互联网公司。01披着AI医疗外壳的互联网公司OpenEvidence的界面与ChatGPT很像,不过是专注于医疗领域的聊天机器人。简单来说,OpenEvidence能够帮助医生在漫长的「长尾」医疗信息里,精准找到他们需要的知识,从而显著提升医生处理罕见和复杂病例的能力。不过与大多数垂直AI产品不同,OpenEvidence更像是一家消费互联网公司。从服务对象看,OpenEvidence没有选择医院,而是把目光放在了医生上。原因很简单,传统医疗产品的路径需要通过医院或其他机构的层层审批,落地周期过于漫长。在传统医疗落地路径下,AI医疗公司负责人需要花三个月找到大型医疗集团的高层开个会,然后再花三个月找医院的「AI委员会」开会。这个过程中还不排除会遇到医院AI政策和AI监管政策的变化,落地前景存在很大的不确定。在公司创始人Nadler看来,医生不仅是一个职业,同时也是消费者。如果产品足够优秀,能够满足他们的需求,医生自然也会用,甚至还会形成自然传播。这一点就像早期的特斯拉一样。其实,DanielNadler的想法并非没有道理。在AI医疗领域,越来越多产品开始把服务对象放到医生上,以避免了医疗机构冗长的购买审批流程。比如,AI医疗笔记产品FreedAI就面向的是独立执业临床医生。产品发布不到2年的时间,每天有1万个付费医生使用,达到了1000万美金ARR(年度经常性收入)。在商业模式上,OpenEvidence也更像一家消费互联网公司。与大部分AI产品走订阅模式不同,OpenEvidence选择了免费提供服务,向所有医生免费开放,通过广告产生收入,产品迅速实现了自发传播。OpenEvidence的成长轨迹,也正如Nadler预想得一样。Nadler披露说:“如果算上所有活跃用户,每月有30-40万人接触我们的系统,其中20多万医生会登录并提问。换句话说,美国大约10%-25%的医生,已经在某种程度上使用OpenEvidence了。”也就是说,已经有1/4的美国用户医生在使用OpenEvidence的工具。而一年之前,这一数字几乎为零。这种迅速的市场渗透速度在医疗领域极为罕见。红杉资本合伙人PatGrady认为,这种自然传播模式在医疗行业极为罕见,通常只在互联网产品中才能见到。那么,OpenEvidence为什么能够实现如此快速的增长?02用AI帮助医生找资料OpenEvidence的成功之处在于,抓住了医生的一个痛点:医学知识更新速度远超医生处理能力。在美国,医生的工作压力很大。现在美国人口已达3.4亿,且不断增长,但老龄化趋势加剧,而美国在职医生只有100万,医生人手捉襟见肘。除了临床工作,他们还要花费大量时间仔细查阅期刊,以确保他们能够掌握最新的治疗信息。但想要跟踪最新医学知识并不容易。原因是,医学知识的更新速度太快了。现在基本上每分钟就有两篇新的医学论文发表,一天24小时不间断,一周七天都是如此。根据OpenEvidence测算,真正对医生有用的,往往是顶尖的期刊,比如影响因子最高的前三分之一的期刊。按这个数量计算,医学知识每五年就会翻一倍。这意味着,医生毕业后不久所学知识就会迅速过时。当面临复杂的病情,例如病人同时患有银屑病和多发性硬化症时,传统医学信息检索工具(如PubMed和Google)难以直接有效地回答这些特定患者的特定用药安全性问题,因为这些关键信息通常隐藏在医学论文的正文深处。这时候,OpenEvidence的价值就来了。之所以OpenEvidence能实现这一点,与其高度强调信息的准确性和透明度不无关系。为了彻底解决幻觉的问题,OpenEvidence对训练数据卡得很严格,所有训练数据都必须是经过同行评审的医学研究。正因为如此,与大模型海量收集互联网数据不同,OpenEvidence走了另一条相反的路:完全放弃了互联网上的健康博文或社交媒体内容,完全基于严格的同行评议医学文献进行训练。除了FDA和CDC公开的医学文献,OpenEvidence还与《新英格兰医学杂志》等顶尖医学期刊建立了合作关系。(《新英格兰医学杂志》由马萨诸塞州医学会(MassachusettsMedicalSociety)所出版的评审性质的综合性医学期刊,1812年由约翰•柯川博士创办,至今已连续出版超过200年。)除了严格限制数据来源外,OpenEvidence在架构上没有选择只靠一个大模型的做法,而是采用了多个模型组成的「集成架构」,每个模型负责不同的任务,比如检索、排序等。Nadler的思路是,与其追求庞大的通用模型,不如训练更小、更专业化的模型,在特定领域里做到极致。解决完了信息准确性,OpenEvidence在信息透明度上也花了很多功夫。比如,医生在使用OpenEvidence时,医生能直接查看答案的来源。也就是说,OpenEvidence不是简单地「压缩」期刊的内容然后输出,而是直接把流量送回期刊网站。这样一来,就形成了一个良性循环:医生找到了可靠的内容,医学期刊获得了流量,也愿意让我们收录他们的内容。在Nadler的设想里,AI医疗最大的想象在于,真正实现个性化医疗。AI都会把病人的所有具体情况与全球所有相关医学知识进行匹配,形成一个超个性化的治疗方案。到那时候,可能120岁、130岁都不再是人类寿命的上限了。03总结OpenEvidence的脱颖而出,再次证明了两件事情:一是垂直场景数据的价值。正如NorwestVenturePartners合伙人ScottBeechuk所说,AI公司最深的护城河将由大型专有数据集创造。那些拥有独特的数据集,能训练或微调出自己的模型,并能够在特定垂直渠道中脱颖而出。二是AI的价值并不体现在多厉害的测评数据,而在于能否抓住用户需求。当下,医生们并不期待大模型能够创造癌症治愈的奇迹,他们更现实的期望是,AI能否帮助自动化解决某个环节的小问题,而这些真实需求只有在长期深入行业、充分理解临床工作流程后才能真正理解。本文来源:36氪文章转载于其他网络,如有侵权请联系我们及时删除
-
25
04/02
个性化软件:程序员的解绑?
为何说大语言模型将重塑开发逻辑?软件开发正经历着深刻变革,但情况跟大多数预测不一样。虽头条叫嚣“编程已死”,但真相更为微妙:我们正见证“个性化软件”的崛起——用户与创作者的界限逐渐消融。这一切都是由大语言模型与AI辅助开发工具的进步所驱动的。当前最令我兴奋的AI趋势是个性化应用。现在,任何人都能创建满足特定需求的应用而无需开发者或设计师的参与。作为产品设计工作室创始人,我需要担忧吗?完全不必。大家开发的应用越多,越能体会优秀软件背后的匠心。——ShaneLevine这场变革跟取代程序员无关,关乎的是软件创作的开疆拓土,特别是那些过去因过于个性化或小众而无法落地的应用。故事的主旨并非AI替代人类开发者,而是AI工具如何催生前所未有的软件新物种。审视当前开发版图:传统软件公司专注满足广泛市场需求,忽视海量的小众场景。这些空白不只是待开发的功能,而是一整个因过度专业化而美化商品化的软件类别。但AI辅助开发的兴起正在改写规则。当人们通过自然对话描述需求即可生成可用代码时,个性化软件开发的经济性蔚然改观。这不是要打造下一个Photoshop或Figma,而是赋能个体为独特工作流、爱好与难题创造专属工具。我本人就毫无技术背景(从未编码),但通过Replit平台与AI对话,我用手机开发出了追踪“狗狗吃了没有”的网页应用。——a16z风投机构JustineMoore个性化软件与传统应用开发有着本质差异。前者涉足的是一个在特殊约束下的新领域:无需支持百万用户、无需处理开发者需求以外的边缘案例,也不需要保持版本的兼容性。当软件开发所需时间与专业知识断崖式下降,项目的最小可行市场规模趋近于1。这不仅是量变,更是对“可市场化软件产品”定义的质变。正是这种简化场景,让AI辅助开发在这个领域大显身手。对某领域认知越浅,越容易对AI的输出惊艳——此谓“能力幻觉”。——GerardSans资深开发者对AI取代程序员的质疑确有道理:开发维护大型软件系统仍需当前的AI所缺乏的深厚技术知识、架构理解与经验。但此类怀疑往往会导致我们忽视个性化软件开发领域的真实变革。不妨这么想,就像电子表格赋能非程序员完成复杂计算与数据分析一样,AI开发工具正让非程序员创建个性化软件解决方案。关键区别在于:电子表格提供的是受限环境,仅针对特定问题,而AI开发打开了为个体需求定制完整应用的可能性。这一转变对软件行业影响深远。我们正从“购买所需”迈向“生成所需”。当个体能自主创建解决方案而非等待商业软件响应需求时,软件市场的总潜在规模将爆发式增长。这不仅关乎抢占现有市场份额,更重要的是重新定义了软件市场的构成。传统模式下,软件开发如同工业制造:高固定成本需庞大市场支撑。新模式则类似手工作坊,能为任意规模市场(直至个体用户)打造工具。对软件市场的衡量标准亦随之改变。随着更多的软件开发针对的是个人使用而非商业分发,许可证销售或订阅收入等传统指标可能也会失效。我们或需采用新指标,比方说节省的时间或解决问题的数量,来捕捉个性化软件创造的价值。但需注意一点:AI辅助做出来的个性化软件可能在健壮性、安全性与可维护性方面比不上专业开发应用。必须理解这些局限性,并认识到这并非专业开发的替代品,而是具备独特优劣势的新物种。个性化软件的涌现引发对开发职业未来的思考。它非但不会削弱专业开发者角色,反而可能推动领域向更抽象与更复杂进化。随着基础开发门槛降低,专业人士会更专注于技术专长仍十分关键的领域:可扩展性、安全性、性能优化与复杂系统集成。软件工程史可看作是不断抽象化的过程。就像编译器发明并未消除程序化思维的需求,而是将工作提升至更高抽象层级,AI助手亦代表着此进程迈向了下一站。关键区别在于:用户无需学习正式的编程语言,只需掌握如何通过自然语言精确表达计算意图即可生成可用代码。AI并未消灭编程,而是为“指示计算机执行特定任务”这一底层过程提供了新的抽象接口。越来越多零编码经验者通过lovable_dev等平台创建应用。这对开发者其实是个利好:用户终将触及工具极限,转而寻求专业解决方案。本欲取代开发者的技术,反而可能创造出更多的机遇。——JulienAI辅助开发的悖论在于:它可能为专业开发者创造更多机会。当用户通过无代码平台与AI助手入门后,终将触碰到工具的能力边界。就像建站工具通过赋能中小企业反而扩大了专业网页开发市场一样,AI开发工具或将培养出理解定制软件价值的新一代具备技术素养的客户。展望未来,包括AI生成代码共享市场、应用定制扩展工具,以及专为AI辅助开发设计的新框架在内,围绕个性化软件开发的新平台与社区将崛起。软件开发的真正革命不在AI取代程序员,而在于AI创造出一个前所未有的软件开发新类别。这一转变或将孕育出更丰富多元的生态体系——商业应用与长尾个性化解决方案共存共生。在此转型的过程中需维持一个平衡的视角:个性化软件的崛起并不预示着传统开发的终结,正如电子表格并未终结金融软件一样。它代表的是软件创作可能性的拓展,在开辟新机遇的同时,保留专业开发的核心价值。软件开发的未来并不是有你没我,而是兼容并蓄。专业开发者会继续开发复杂系统,AI工具则赋能个体实现曾不可及的个性化方案。这有望令软件前所未有地更加触手可及、更加个性鲜明、更加深度地融入生活之中。本文来源:36氪文章转载于其他网络,如有侵权请联系我们及时删除
-
25
04/02
苹果重拾“AI医生”
苹果的AI医生为何来迟?3月30日彭博社爆料,苹果大改其健康App,意欲开发一个全新的“AI医生”。据悉,该计划为代号ProjectMulberry,现阶段包含AI健康教练、食物追踪、锻炼分析、教育内容四大模块,尝试利用iPhone作为媒介,向用户提供一个算法构成的虚拟医生。ProjectMulberry的四个健康模块如果用户同意应用的条款,苹果将会收集用户日常生活产生的各类健康数据,并交予AI医生进行分析,进而为用户定制个性化的健康管理计划。同时,苹果还会与睡眠、营养、物理治疗、心理、心脏等方面的医生共创科教视频。这些内容将作为AI医生的补充,向用户直观地描述他们的健康信息,或是解释健康计划的制定逻辑。举个例子,当苹果的App收集到反映心率异常的数据,AI医生便会在给予用户提醒的同时,推送一些解释心脏病风险的视频,敦促患者及时进行干预。不过,早在深度学习萌芽时,谷歌、微软、IBM等巨头便沿着自己的理念推出过各具特色AI医生,但其中的绝大多数已经折戟,少有企业再提“AI医生”。而今已是大语言模型时代,苹果的医生似乎有些姗姗来迟。01苹果的AI医生为何来迟?单单从ProjectMulberry的内容来看,苹果此次爆出的四个模块没有太多吸睛之处。AI健康教练、视频教育不是什么新鲜概念,食物追踪、锻炼分析等基于计算机视觉的应用也早有国内外厂商试水。但对于苹果而言,当下可能是属于它最好的时机。众所周知,苹果的生成式AI能力一直落后于GAFA中的其他成员。当Gemini和GPT在AI逻辑推理上打得不可开交时,对话式Siri仅仅交出测试成功率66%~80%的答卷。由于每三次交互中便会出现一次错误响应,原本2024年的上线计划被直接推到了2027年。为了追回颓势,苹果2月宣布了5000亿美元本土投资计划,打响翻身战。计划之中,苹果将在未来四年重点发展AI服务器制造、研发扩张等产业,强化云计算、AI推理、数据分析能力,预计在2025WWDC大会上推出自研AI系统,整合语音、视觉与多模态交互。因此,在当下这个节点上爆出新计划,要么是“AI医生”的想法已在苹果健康生态构想中孕育多年,要么由于库克对于健康产业的钟爱,ProjectMulberry赶上了自家的AI风口。其次,国内外企业虽在“AI医生”早早开启布局,但由于算法的局限及数据的缺失,很多企业开发应用效果都不尽如人意,未能走到市场中。举一个例子:过去很多医生都提到了这样一个需求,他们希望AI厂商开发一个智能算法,尽可能准确地识别图片中各个食物的热量,以此给予用户直观的计算结果,达到热量摄入控制的效果。在那个没有生成式AI的时代,AI厂商只能通过深度学习去进行食物的分割,基于食物加工后热量的平均值进行估算。但因为食物种类多元、加工方法各异,当时的AI无论在食物要素的分割,还是热量的估算上,都与现实存在较大的误差。苹果选择此刻切入这一赛道,其中的重要原因便是因为相关的AI技术已经趋于成熟。如今,iPhone16已能较为准确地估算食物的卡路里和碳水化合物含量,帮助肥胖症、糖尿病等疾病患者进行健康管理,加之生成式AI的赋能,新一代的“食物跟踪”大概率能将分割与计算做得更精准,达到医用的标准。同理,锻炼分析亦能借助新的AI技术实现突破。基于iPhone的后置摄像头,AI医生能够取得更为丰富的数据研究用户的锻炼情况,提供相应的动作纠正和姿势纠正,实现“数字物理治疗师”功能。总的来说,本有的AI基础制造投资计划叠加常年积累的AI视觉能力,苹果有望将围绕这些陈旧的概念做出新一代的数智应用。何况,有可穿戴设备这一生态优势作为支撑,苹果或许真能盘活AI医生,使其规模性地落地市场。02越过数字医疗难以逾越的阻碍从ProjectMulberry现有的内容看,苹果AI医生期望切入的领域可能是“AI+健康管理”,也可能是“AI+数字疗法”。近几年间风云变幻,两个赛道中的不少初创公司已经无功而返。追其究竟,相关企业由于缺乏数据难以给出精准的个性化诊疗计划,因而服务产生的价值未能覆盖研发推广过程付出的高额成本。得益于可穿戴设备生态赋予的多模态数据集成能力,苹果首先能够解决“精准性”与“个性化”带来的问题。2014年,初代AppleWatch便已集成心率传感器,能够连续手机用户的心率变化信息。2018年后,AppleWatch又引入了ECG功能,使其能够在后台动态检测用户的心脏节律。ECG可谓可穿戴设备在医疗健康功能上的第一个“杀手级”功能,让真正需要持续体征监控的带病人群也能从技术的发展中受益,从而打开了慢病人群这一巨大的市场。2021年,苹果的单导联ECG和房颤提醒两个功能以“突破性创新医疗器械”的形式获得了FDA的器械审批,使其成为全球第一款直接面向消费者的通过手腕检测心电图的非处方产品,实现了AppleWatch消费级到医疗级的跨越。2020年9月,新发布的AppleWatchSeries6又加入了血氧监测功能。结合心率变异性(HRV)分析,苹果可生成深度睡眠质量报告,揭示用户夜间呼吸与心血管状态的关联,为慢性疲劳、睡眠障碍等亚健康状态提供了早期预警窗口。血糖监测方面,苹果此前和RockleyPhotonics合作开发硅光子技术,旨在通过激光光谱分析实现无创血糖监测。尽管在2021年双方分道扬镳,但苹果在微型传感器、光学算法上的积累,正加速这一重要项目的落地。若成功,AppleWatch将首次实现血糖、血压、心电图等代谢与心血管指标的闭环监测,颠覆慢病管理的已有范式。多模态数据融合之下,苹果已为用户绘制出一幅完整的健康画像。基于连续的、多维的数据进行辅助决策,AI医生理论上能够制定精准的健康计划,并根据用户身体变化进行动态调整。苹果健康生态中各类软硬件设备的作用其次,“AI健康管理”和“AI数字疗法”中的许多企业长期面临高昂的运营费用,他们必须在研发、获客、医生服务等方面投入大量成本。而在ProjectMulberry披露的内容模块中,大部分服务仅需要内部开发即可,仅有视频相关内容需要需求医生的支持。此外,苹果本身就具备拥有庞大用户的平台,因此能够省下了大量前期成本,使得凭借较低的客单价也能盈利。最后是商业模式。初创公司的绝大多数收入需要依靠提供服务获取,而苹果可选择的商业模式更为丰富。譬如,AI医生一方面可以软件的形式,随Health+纳入AppleOne套餐,抽成30%的医疗订阅费;另一方面可单单作为成本项,通过与苹果生态的强绑定,拉升苹果旗下其他可穿戴设备的销量。三大优势之下,苹果或能凭借AI医生开拓过去初创公司未能跑通的市场,在新的千亿院外健康市场中掘金。03重新审视那些被抛弃的医疗AI场景虽说现有的AI技术距离打通严肃医疗还有一段距离,但纵观当下AI企业的应用开发趋势、国家药监局审评审批改革路径、普通百姓对于AI技术极快的接受程度,我们可以清晰预见那个将AI作为私人医生的时代。而一向谨慎的苹果开启布局,或许意味着这个赛道已经存在跑通的可能。当然,发生根本性变化的不止“AI医生”。这个时候,我们有必要像苹果那样,重新审视十年AI发展间功亏一篑的智能应用。当技术的底座向前跃迁,那些被抛弃的医疗AI场景,或已拾得新生的可能。本文来源:36氪文章转载于其他网络,如有侵权请联系我们及时删除
-
25
03/26
互联网大厂的AI APP大战:乱成一锅粥,谁都怕错过
三大派别决战AI新入口。就在上周,小红书旗下AI搜索APP「点点」不仅接入了DeepSeek,还正式宣布基于自研大模型上线「深度思考」功能,号称是学了超过10亿篇小红书笔记。与此同时,抖音APP测试接入豆包的消息也在上周悄然流出,从截图来看,豆包的入口甚至与点赞、评论直接并列,相当醒目。目的并不难猜,根本上还是为了打破豆包与海量抖音用户之间壁垒,减少用户使用豆包的体验成本。抖音Beta测试截图,图/Tech星球但应该不止我有这种感受:时至今日,各种AI的APP、APP的AI不是少了,而是太多了。且不提ChatGPT、DeepSeek、Kimi、智谱清言、讯飞星火等各种大模型的APP端,各大互联网公司也在结合自身平台的海量数据,推出了各种「更/最懂xxx的AI」,不仅小红书有「点点」,还有微博智搜、知乎直答、腾讯元宝等等。包括海外,马斯克的X也有GroxAI。实在有点用不过来。《红楼梦》里贾宝玉曾对林黛玉言:「任凭弱水三千,我只取一瓢饮。」但面对各种APP里的AI,恐怕用户想用都用不过来。而且不同平台的产品策略也有很大不同,知乎直答、微博智搜都是直接集成在主APP之中,点点是在小红书之外推出独立的APP,Grox不仅集成在X的APP上,还有独立的APP。甚至在具体到集成后的入口,各家也有不同的思考和选择,唯一的共识可能就是几乎都额外接入了DeepSeek。互联网公司只要训练AI、打造APP就可以,但面对市面上已经非常多的通用类、垂直类AIAPP,用户要考虑的事情就很多了。从APP船票到AI入口,谁都害怕错过既然AIAPP已经多到让人用不过来,那我们不禁要问:这些互联网公司为什么还在一窝蜂地做AI?答案其实很简单,因为谁都不敢缺席,谁都希望AI能成为自己的下一张王牌。就像10年前大家都想做自己的社交网络、5年前每家公司都在卷短视频,现在,AI越来越有可能成为一个吞噬一切的「超级入口」。图/DeepSeek谁的AI能吸引更多用户,自然就意味着流量、规模、市场——未来。互联网公司们自然很在乎,毕竟在这场从APP时代向AI时代过渡的竞赛中,谁也不能掉队,谁都不想认输。不过,尽管目标都是在AI时代继续伟大,但各家互联网公司的AI策略却明显不太一样。而对用户来说,更关心的问题可能是AI进入APP之后能带来的独特价值,而不只是接入大家都已经接入的DeepSeek。1、大模型派:AI即APP,APP即AI。ChatGPT、DeepSeek、Kimi、智谱清言、讯飞星火……这一类大模型玩家的玩法最纯粹:直接推出独立AIAPP,试图让用户把AI当作一个全新的生产力工具,而不是APP里的附加功能。但这条路显然并不容易。「AI即APP」最大的挑战在于用户习惯的改变——毕竟,不是每个人都愿意为一个个AI单独下载一个又一个的APP,甚至更习惯在已有的APP里顺手调用AI。图/雷科技OpenAI在这方面还是最领先的,ChatGPTAPP拥有全球最多的用户基数,DeepSeek、Kimi们也都在紧追不舍,尤其是努力拓展用户规模。2、垂直平台派:让AI成为APP的一部分。相比大模型公司,知乎、微博等平台的选择更加务实——它们没有推出独立的AIAPP,而是直接把AI整合进主APP里。甚至包括小红书,之前也是在小红书APP中上线了「达芬奇」「搜搜薯」等实验性的AI功能。相比单独推出一个APP会遇到获客难的问题,这种策略的好处对中小平台的优势非常明显,既避免单独培养AIAPP的用户群体所带来的冷启动风险,也在最大限度降低用户使用门槛,让AI融入已有的用户习惯。比如说知乎直答、微博智搜直接集成到主APP,用户无需额外下载就能使用。在微博APP,直接就把微博智搜的入口设置在搜索框中,点击就能跳转到「微博智搜」的独立界面。微博截图,图/雷科技但问题在于,这种方式很难让AI形成独立的品牌心智,用户可能并不会记住「知乎直答」或「微博智搜」这个名字,而只会认为这只是APP里的一个普通功能。这或许也是小红书几次尝试过后,最终选择独立推出「点点」AI搜索APP的关键原因。3、超级巨头派:独立App与集成AI双管齐下相比大模型创业公司,腾讯、字节、百度这类互联网巨头有大得多的资源,也有多得多的打法,既能从头开发一款AI原生APP,也可以通过旗下的超级/头部应用导流,比如腾讯元宝就直接拿到了微信的推广位。当然,也包括将AI集成到已有的超级APP之中。这也是字节正在采取的策略,在借助旗下各大渠道的流量推广,成为2024年中国第一大AIAPP之后,面对DeepSeek的异军突起,豆包终于也要接入短视频超级APP——抖音之中。而且入口层级非常高,测试显示了两个入口:一个直接出现在短视频播放界面,与点赞、评论并列;一个是出现在消息列表,更加无缝。这两个入口,也能让用户不知不觉就用上了豆包AI。马斯克的GroxAI也是类似的模式,不仅推出了独立APP,还将其直接集成在了X(原Twitter)APP的底栏,还有自己的独立APP,希望能同时抓住两类用户。这种策略相对稳妥,既能利用主APP的流量优势推广AI,又能在独立AIAPP方向上留下后手,但也意味着更高的投入成本。另外值得一提的是,根据官方运营人员的回复,「点点」AI搜索之后也会集成在小红书APP之中,但入口尚未可知。小红书截图,图/雷科技替代还是互补?一场AI时代的「入口」之争毋庸置疑,AI的快速进化正在挑战APP作为主要信息和交互入口的地位。未来,AI会完全替代APP,还是AI只是APP的一部分?从理论上来说,AI是有可能替代一部分传统APP的,尤其是那些以信息检索和内容消费为主的应用。试想一个场景,你原本需要打开百度搜索一篇攻略,但AI直接汇总了10篇优质内容,精准给出结论;原本需要在知乎、微博翻阅讨论,但AI已经帮你提炼出了核心观点……当AI能直接完成任务,用户自然不再需要跳转多个APP——这意味着,许多APP可能会被AI消解掉,或者说「降级」成AI的数据来源,而不再是用户主动访问的目的地。在腾讯元宝使用DeepSeekR1,图/雷科技但这并不意味着APP会消失。相反,AI也需要APP,或者说,AI需要一个「承载体」。毕竟,AI本身只是个「能力」,而用户习惯是很难改变的。就像当年移动互联网崛起时,许多人以为微信会干掉所有APP,但实际上,微信只是成为了「超级入口」,大量APP仍然依赖它来获取流量。同理,AI可能不会取代所有APP,而是成为一个新的信息分发和交互方式,让APP变得更加智能。换句话说,未来AI与APP的关系,更可能是「融合」而非「取代」。写在最后当前AIAPP乱战的局面,像极了2008年AppStore诞生后最初几年,大家都在争抢新的用户习惯和流量入口。而这场战争的最终赢家,可能不会是单一的AI,也不会是单一的APP,而是那些真正能让用户「无缝使用AI」的产品。而对用户来说,更重要的一个命题是我们是否真的需要那么多AI?或者说,未来的AI是否能真正让用户「更省心」而不是「更焦虑」?互联网公司们或许可以继续往前跑,但普通用户真正的需求可能没那么复杂——我们不需要100个AI,我们只需要一两个真正好用的AI。而目前来看,这场AIAPP之战,还远未到盖棺定论的时候。本文来源:36氪文章转载于其他网络,如有侵权请联系我们及时删除
-
25
03/26
微信聊天框内置元宝,超级 App 又一轮进化开始
AI技术正在从独立功能向基础设施转变。微信终于在聊天框放了个AI助手。虽然名称上还是「元宝红包封面助手」,但在介绍里可以看到其是依托于腾讯混元大模型的AI服务,可以提供陪聊、答题、作图以及定制红包封面等功能。微信作为国内最大的社交平台,这次内置AI助手元宝或许意味着AI技术正在从独立功能向基础设施转变,腾讯正在将微信的生态优势转化到AI领域。这会是腾讯重回AI牌桌的绝杀开端吗?图片来源:极客公园01实测,用AI更丝滑了极客公园做了一番简单实测。先是问了一下它和元宝app的异同有哪些:图片来源:极客公园然后我丢入一篇极客公园昨天发布的公众号文章链接,内容是关于DeepSeek发布V3模型更新,「元宝红包封面助手」回复说「收到,我问问元宝~」,这个回复有点人性化的。随后它也没问我是否需要开启深度思考,就直接进行了21秒的深度思考:元宝的深度思考过程|图片来源:极客公园然后给出了我一份分析:DeepSeek公司于2024年3月24日发布了V3模型的重要更新,该版本虽非预期的V4或R2迭代,但在性能表现和开源政策上实现了显著突破。以下是本次更新的核心要点:技术规格与发布信息模型参数规模达6850亿,属于小版本升级(V3-0324)基于全新32KGPU集群进行后训练优化已通过官网、App及小程序等多渠道开放使用开源版本同步上线,延续初代V3「557.6万美元成本比肩Claude3.5」的高性价比特性核心能力提升前端开发能力接近Claude3.7专家级水平,用户测试显示:能生成包含CSS动画与JavaScript交互的完整HTML文件(如天气卡片动态效果)代码质量显著优于旧版R1模型(对比案例显示视觉效果与功能实现差距明显)在网站搭建测试中生成效果与Claude3.7Sonnet相当支持复杂指令解析(如通过函数/按钮组实现多天气动画切换)上下文理解能力提升,尤其在多轮对话场景可精准处理跨语言混合编程需求(示例未展示但文中暗示)开源生态建设采用更宽松的开源协议,降低商业应用限制延续初代V3作为首个冲入ChatbotArena榜单前十开源模型的优势发布1小时内即吸引全球开发者参与测试验证行业影响与用户反馈被专业用户评价为「相当于ClaudeSonnet3.5到3.6的升级幅度」在无官方基准测试情况下,用户实测数据成为主要验证依据开发者社区高度关注其开源协议调整带来的商业化可能性未来展望官方未透露V4/R2研发进展,但用户期待值持续升温当前版本已确立开源大模型领域新标杆,可能加剧行业竞争该更新标志着DeepSeek在保持成本优势的同时,通过技术迭代缩小了与顶尖闭源模型的差距,特别是在编程领域展现出颠覆性潜力,其开源策略调整或将重塑大模型生态格局。眼看清明节就要到了,我也问了问它「清明节做点什么好」,对这个问题它倒是没回复「收到,去问元宝」,也没开启深度思考模式,而是很快就输出了答案:清明节,作为中国传统节日之一,不仅是缅怀先人、寄托哀思的时刻,也是亲近自然、感受春天气息的好机会。以下是一些清明节期间可以进行的活动建议:祭扫祖先:前往祖坟或陵园,清扫墓地,献上鲜花、纸钱等,表达对逝去亲人的怀念和敬意。踏青赏春:利用清明假期,与家人朋友一同外出踏青,欣赏春天的美景,呼吸新鲜空气,放松心情。植树造林:参与植树活动,为大地增添一抹新绿,既是对自然的回馈,也是对生命的礼赞。品尝清明食品:制作或购买清明节特有的食品,如青团、清明果等,体验传统节日的风味。文化体验:参观博物馆、文化遗址,了解清明节的历史文化背景,增长知识。家庭聚会:利用假期与家人团聚,共叙亲情,享受家庭的温馨。静思冥想:在宁静的环境中,进行冥想或静思,反思生活,规划未来。公益活动:参与社区或慈善机构组织的公益活动,帮助需要帮助的人,传递正能量。户外运动:进行徒步、骑行、野餐等户外活动,锻炼身体,享受户外的乐趣。摄影创作:带上相机,捕捉春天的美丽瞬间,进行摄影创作,记录生活的美好。无论选择哪种方式,重要的是要用心感受节日的意义,珍惜与家人朋友相处的时光,同时也要注意安全和环保,让清明节成为一个有意义且愉快的假期。还有分析文件的功能我也试了一下,之前如果看到比较复杂的文件想让AI先帮忙概括总结一下要点再去细读的话,得先去打开AI产品或者去相应的网页,但现在可以直接在微信里丢给这个助手,使用体验更丝滑了一些。这次「元宝红包封面助手」也自行开启了深度思考模式:图片来源:极客公园在21秒的深度思考后,助手给出了出一份分析:对文档内容的技术分析与行业洞察一、语言模型技术演进核心突破:从N-gram到Transformer的范式转变,语言模型参数量级从百万级(GPT-1)跃升至万亿级(GPT-4)自监督学习(MLM/NSP)解决了海量数据标注难题,预训练+微调模式成为行业标准词嵌入维度从768(BERT)扩展到12888(GPT-3),语义表征能力呈指数级提升关键技术指标:训练数据量:GPT-3使用45TB数据(约1万亿词),相当于1351万本牛津词典算力成本:ChatGPT训练需1万张V100GPU,成本超10亿人民币模型效率:DeepSeek通过稀疏注意力等技术,将训练成本降低至同规模模型的1/3二、Transformer架构创新技术革命性:自注意力机制实现O(n²)的全局关联建模,相比RNN的序列依赖突破显著多头注意力层数从12层(BERT)增至96层(GPT-3),上下文窗口从512扩展到32K(Llama2)位置编码从绝对位置(Sinusoidal)发展到相对位置(RoPE),更好处理长序列工程实践突破:混合精度训练(FP16/FP32)节省40%显存消耗梯度检查点技术(GradientCheckpointing)实现百倍序列长度扩展张量并行+流水线并行将千亿参数模型训练效率提升80%三、DeepSeek的技术突破开源生态贡献:模型架构:提出动态稀疏注意力机制,推理速度较Llama提升2.3倍训练效率:MoE架构实现万亿参数模型在千卡集群上的可行训练中文优化:构建包含2.6万亿token的中英双语预训练语料库性能指标对比:数学推理:DeepSeek-Math-7B在GSM8K达到83.5%准确率(GPT-4为92%)代码生成:HumanEval得分68.9%(CodeLlama-34B为53.7%)多模态理解:ViT-22B在ImageNet-21K上top-1准确率达88.7%四、行业发展趋势技术前沿方向:多模态融合:GPT-4o实现200ms级跨模态响应延迟(人类平均反应时间250ms)推理能力突破:DeepSeek-V3在定理证明任务上达到IMO金牌选手水平能源效率:新型混合架构(如DeepSeek-R1)实现每瓦特算力提升5倍中美竞争格局:开源模型差距从12个月缩短至3个月(Llama3vsDeepSeek-v2)算力基建:中国在建智算中心规划算力达2000EFLOPS(美国当前运营1200EFLOPS)行业应用渗透率:中国制造业AI质检部署率达37%,超越美国29%五、关键数据启示经济学视角:大模型训练边际成本曲线:参数规模每提升10倍,单位token训练成本下降28%ROI周期:头部企业模型商业化回报周期从36个月缩短至18个月人才密度:顶尖AI研究员中美薪资差距从50%收窄至15%技术伦理考量:安全对齐:最新RLHF技术将有害输出概率从3.2%降至0.07%能耗优化:液冷集群PUE值从1.5优化至1.08,碳排放减少40%可解释性:因果归因算法实现85%的决策路径可视化注:文中涉及企业及技术参数均来自公开资料,分析基于技术演进规律推导,具体实施需结合行业动态调整。建议关注浙江大学CCAI中心官网获取最新研究成果。看来关于是否开启深度思考模式,「元宝红包封面助手」有自己的判断,如果任务很简单,就不开启,反之自动开启。02加速AI布局过去一个月,腾讯在AI应用领域加速布局。2月起,腾讯旗下多个核心产品,如微信、元宝、QQ浏览器、QQ音乐、ima(腾讯智能工作台)、腾讯文档、腾讯地图等,均接入了DeepSeek模型,并同步支持自研的混元大模型;元宝走向日更级迭代,35天版本更新30次;混元大模型推出腾讯首个自研推理模型混元深度思考模型Thinker(T1)、发布新一代快思考模型TurboS、推出5个全新3D生成模型并全部开源……业务线也作出整合,为了更好地发挥AI技术的协同效应,2月,腾讯将QQ浏览器、搜狗输入法、ima等十余款AI产品及团队从PCG(平台与内容事业群)划归CSIG(云与智慧产业事业群),形成以「元宝」为核心的「C端工具+B端服务」矩阵。在资金投入上,腾讯也展现了其在AI基础设施建设上的决心。在1月的2024年度员工大会上,马化腾提到腾讯会持续投入资源进行算力的储备。据报道,腾讯计划在2025年加大算力基础设施的投资,投资金额或达1000亿,其中计算约580亿(GPU约400亿、服务器约110亿、存储设备约55亿、网络设备将近58亿),IDC部分,自建及相关费用加起来将近131亿,租用部分将近要花200亿。3月19日,腾讯总裁刘炽平在财报后的电话会议上称,资本支出占收入的百分比将上升到十几个百分点,人工智能将成为战略投资的重点。微信这次将大模型产品「元宝」内嵌于聊天界面,看似是功能升级,实则是腾讯对AI时代的战略卡位。通过将大模型产品以「AI版文件传输助手」形态嵌入高频聊天场景,微信将用户的工作流、信息流统一收束,通过总结公众号文章、解析文件、图片等刚需功能,微信在原有的功能之外,新增了一个可以持续产生价值的AI助手角色,这可能会让用户在微信的停留时长和打开频次迎来结构性增长。微信作为国内最大的社交平台,这次内置AI助手元宝或许意味着中国互联网正式进入「AI原生应用」时代,AI技术正在从独立功能向基础设施转变。而随着开源日渐成为行业趋势,单纯的大模型技术能力越来越难以成为产品和市场竞争的绝对壁垒。当微信这样的庞大生态,带着海量用户接入AI功能,对于所有的AI创业者来说可能都要思考:到底什么样的功能和创新,可以让小公司与微信这样的生态竞争用户接触AI的入口;到底什么样的壁垒,才能不被现有的超级产品生态,以接入新功能的方式吞噬。DeepSeek重塑了AI行业的格局,技术公司、大厂和AI原生创业者,都要重新思考自己的生态位。本文来源:36氪文章转载于其他网络,如有侵权请联系我们及时删除
-
25
03/26
企业管理软件的“AI革命”:是救命稻草,还是昙花一现?
不以用户为中心,任何技术升级都是在炫技,毫无价值可言。2025年随着deepseek的推出AI技术可以说是火得一塌糊涂,而各大企业软件行业也纷纷搭上了这趟快车。在短时间内纷纷官宣其接入了deepseek,更有甚者已经再宣传自身的AI能力了,但问题就是是,这些所谓的AI功能,到底是真能解决问题,还是只是为了蹭热度?老杨认为企业软件接入DeepSeek等AI技术,既有蹭热度的可能,也有真正为用户服务的动机,但问题是这种动机是否能真正的实现。其实行业人士都看的出大部分的管理软件公司在短时间内官宣接入DeepSeek都是在蹭热度,动机何在呢?第一,想通过蹭热度吸引用户关注,快速提升销量或估值;第二,看到竞争对手接入AI,担心落后,于是匆忙跟进;第三,技术能力不足,接口来凑,部分软件公司缺乏深度开发AI功能的能力,只能选择简单的接口调用这种方式来体现;老杨认为如此做法对于企业管理软件而言无疑是在“饮鸩止渴”,对于企业用户而言什么开发过程如何来实现是不懂,只关注结果,软件公司如此宣传导致的后果就是企业用户被宣传吸引,可能为这些所谓的“伪AI”功能支付额外费用,但实际使用后发现功能鸡肋,未能获得实际价值导致失望和信任流失。此时企业用户对软件产品的失望会转化为负面口碑,可能导致对整个行业的技术能力产生怀疑。作为企业管理软件应该知道的是AI是工具,不是目的。AI技术的价值在于解决实际问题,而不是作为营销噱头。企业管理软件在接入或开发AI功能时,应该以用户需求为核心,思考AI如何优化业务流程、提升效率或降低成本。深度整合是关键,简单的接口调用无法发挥AI的真正价值。其实道理谁都懂,只是逃脱不了市场的卷。企业管理软件加入AI接口或者开发AI功能本身是件好事,但问题是要以用户为中心,不能为了追潮流、为了AI而AI,AI卖点可以获取流量高曝光率,可以骗骗不懂技术的企业领导,但也会反噬。比如某软件公司宣称自己接入了AI,功能如何智能,结果用户发现,所谓的AI功能只是一个简单的关键词搜索工具而已,根本谈不上“智能”,反而还很“弱智”,结果很快就在圈子里“臭名远扬”。圈子里的人都知道AI功能的开发和应用是一个长期过程,需要持续投入资源进行优化和迭代。软件公司不能指望一蹴而就,企业软件加入AI功能,绝对不是简单地接入一个DeepSeek接口就能搞定的事情。AI的引入是一个系统工程,涉及技术、业务、用户体验、数据安全等多个层面的深度整合。如果只是简单地接入一个接口,不仅无法发挥AI的真正价值,还可能带来一系列问题。DeepSeek与AI技术当前很火,但应用了AI技术就真的能拯救企业管理软件吗?老杨认为AI技术确实有潜力为企业管理软件带来显著的价值,但它并不是万能药。要真正提升企业管理软件的竞争力,必须从用户需求、业务场景、技术整合、用户体验等多个维度综合考虑。企业软件加入AI功能可以在一定程度上提升企业用户的效率,比如分析大量数据,提供洞察和预测,帮助企业做出更科学的决策。但AI的效果取决于数据的质量和数量。如果企业管理软件的数据不完整或不准确,AI的输出结果也会大打折扣,但对于大部分传统企业领导而言是不懂这些的,他们不会在管理上做出变革,最终会认为是软件功能不行、是AI弱智。同时AI功能擅长处理结构化数据和明确规则的任务,但在复杂、模糊的业务场景中,仍然需要用户的经验和判断,所以有时候AI并不能解决管理者所有的痛。而最最关键的是AI不是“零成本”,开发真正实用的AI功能需要软件公司投入大量的成本,且AI技术更新换代很快,软件公司为此还需要承担技术风险,而这一切最终都需要企业用户来买单,并不是所有的企业能够承担的起高昂的产品费用。在企业软件热火朝天宣传AI、引进AI技术与其产品结合的同时,老杨认为很多软件公司比较容易忽视的一个关键问题就是:企业用户的能力。所以不管是在当前还是在以后软件公司都会面临如下问题:1.高质量的数据:如果企业原来的数据存在错误、不完整或者格式不统一等问题,那么即使软件具有了AI的功能,也可能无法得到准确的结果。就好比用一堆烂材料盖房子,再好的工匠也很难盖出坚固的房子。2.员工接受问题:在大部分员工眼里认为应用AI技术及功能就是为了淘汰,所以会抵触,这在一定程度上会影响工作效率和软件的推广使用。3.行业适配性:不同行业的企业管理需求差异很大,有些行业的业务流程非常特殊和复杂,现有的技术可能无法完全满足其个性化需求。比如,金融行业对风险控制和合规性要求极高,制造业对生产流程管理要求严格,这些特殊需求可能需要企业管理软件进行深度定制开发,而不仅仅是依靠通用的技术接口就能解决。但深度定制开发又涉及成本、流程与管理变革,最终又会进入无解的死循环里。所以从以上我们不难看出,AI技术为企业软件行业带来了新的机遇和挑战。但AI不是万能药,它的价值取决于企业如何应用。如果只是为了赶潮流,那AI充其量就是个“花瓶”;但如果能真正解决用户痛点,它就能成为企业软件的“核心竞争力”。面对市场竞争和经济环境的变化,企业软件需要深度整合AI技术,提升智能化、个性化和数据驱动能力,同时通过完善的服务体系为客户创造更大价值。只有那些真正以客户为中心、深耕技术和服务的企业,才能在AI浪潮中立于不败之地。本文来源:36氪文章转载于其他网络,如有侵权请联系我们及时删除
-
25
03/25
从互联网到AI,「大厂」跌落神坛
当前AI发展现状,缺少用户全生命周期价值的讨论。关于AI能否诞生出下一个超级应用的讨论,一直是行业里最热门的话题。这个话题的本质,是在现有技术框架下寻找最接近AGI的商业化形态。当前ChatGPT的1亿用户规模已接近超级应用门槛,但日均使用时长不足20分钟的现状,暴露了工具属性与粘性需求的矛盾,也折射出AI行业的集体困惑。市面上各类AI应用早已超2000款,从A16z等投资机构的分析来看,当前主流产品集中在AI陪伴、ChatBot、智能客服、图片视频生成等领域——当用户打开手机应用商店时,看到的仍是千篇一律的“AI助手”和“创作工具”,市场始终缺乏一款真正的国民级产品。这一现象的背后,是互联网与AI两波技术浪潮的根本性差异。超级应用的背后往往是超级大厂,但从全球范围来看,大部分AI初创企业熬不过五年生存期。以国内市场为例,据统计,过去三年里,累计超过20万家AI企业因各种原因退出市场,即使有的能在短时间内成为新晋独角兽,但一个鲜被关注的现象也同时浮现:尽管这些公司估值飙升、融资不断,但至今没有一家能被称为“大厂”。相比互联网时代,阿里用“平台+流量”征服电商,腾讯以“社交+内容”建立帝国,字节跳动靠“算法+推荐”重构信息分发——标准化产品、网络效应、边际成本趋零的黄金三角,支撑起超级公司的诞生。而AI时代的技术逻辑正在颠覆这一切:模型训练成本与场景复杂度正相关、技术复用率低、数据价值呈长尾分布。组织基因的冲突更为尖锐。某大厂AI实验室采取“赛马机制”,多个团队产出的同质化客服系统,最终因无法适配客户私有化部署全部夭折。这种“大中台”模式在AI领域的水土不服,折射出更深层的矛盾:当技术价值从通用性转向场景特异性,传统的中心化组织架构与AI所需的敏捷响应机制产生根本性冲突。当我们将视角拉远,会发现这场产业变局的三个核心矛盾:产品逻辑从“用户连接”转向“场景渗透”、组织架构从中心化转向“细胞化”、技术估值体系从“规模溢价”转向“场景乘数”。这些差异在冥冥之中,或许注定了AI时代难以复刻互联网的造神神话。当前的AI公司,还没有真正意义上的“大厂”“大厂”一词诞生于互联网时代,核心特征是庞大的员工规模与生态化布局。以腾讯为例,成立五年时总员工数量达到2000,截止目前人数已经超过11万人;字节跳动更是以年均万人规模的增速,十年内就达到12万员工的体量。传统互联网大厂通过“产品矩阵+流量生态”模式,将用户、数据、服务深度绑定,形成自我循环的商业闭环,同时也带来了大量的就业岗位。就拿电商行业来说,在供给、支付、物流、信用体系加持下,成就了万亿级标准化市场,如今最有代表性的阿里,员工总数已经逼近20万。某种程度上,人数、岗位的增长,能够反映出一家互联网公司的市场规模和业务进展的成熟程度。但纵观AI领域,目前国内外大部分的玩家,仍以小于千人的创业团队为主,明星公司如DeepSeek,目前的总人数仅为160人。即使是OpenAI,成立近十年,员工总数也只有2000左右,其中近90%为技术人员,业务仍集中于模型训练与垂直场景应用,远低于传统互联网大厂的人口增速。AI公司的“技术密集型”结构,与互联网时代的“人力密集型”模式形成鲜明对比,某种程度上,意味着行业尚未形成可复制的规模化增长路径。前段时间,有媒体称,当下AI领域高薪招人成了普遍现象,近一年AI技术岗位中,30%的年薪超过50万元。类比早年传统互联网行业的繁荣,诞生了一批以程序员为代表的城市中产,于是有人推断,AI也在催生这样的盛况。但现实中准确的来说,这场AI领域的高薪招聘热潮,仍然是由互联网大厂主导。阿里2025年春招开放的3000个实习生岗位中,近50%与AI相关。字节除了广挖行业专家,张一鸣甚至亲自牵头挖掘各路人才。众所周知,在最早一批的AI抢跑过程中,大厂几乎落后了一拍,在技术、产品、商业模式上都没能主动带来先发性的突破。随着大厂补齐短板,创业公司当中,有技术实力的陆续被兼并,有价值的业务、技术和人才最终又回流到了互联网大厂。后者有资源、有足够的现金流来支持长期的研究,并能够在产品侧同质化极其严重的情况下,凭借综合优势后来居上。但需要注意的是,这并不意味着互联网大厂变成了“AI大厂”,事实上,AI仍只是他们生态内的一个组成部分,负责这部分业务的团队,大多是在原有基础上,进行扩充或将队伍拆分的更加细致。作为对比,不同于互联网公司的大跃进式招聘,那些一开始走向行业潮头的新兴公司,反而显示出不断缩编的迹象。自去年开始,包括MiniMax、月之暗面、零一万物、智谱在内的AI公司接连传出裁员消息,当年从大厂出走的技术骨干也陆续出现回流迹象。倒闭8万家新公司从哪来,到哪去?来看一组数据。自ChatGPT发布到去年8月,国内有近8万家新注册的AI公司处于注销、吊销或停业异常状态,占同期新注册AI企业总量的约9%,也就意味着,由大模型掀起的AI浪潮下,不到三年里兴起的创业公司接近90万家。这些企业从哪来?ChatGPT通过大模型+人类反馈强化学习的技术路径,实现了自然语言处理的质变,两个月内用户破亿的商业成功,为国内企业提供了可复制的技术路线参考。资本市场将ChatGPT视为“AI的iPhone时刻”,当年A股市场单月概念股涨幅过半,融资额同比激增数倍。这种财富效应一度点燃了三类玩家:互联网巨头通过发布“中国版ChatGPT”抢占舆论制高点;传统科技企业加速向AI转型;初创公司纷纷快速成立。有投资人指出,国内资本的投资偏好,使得轻资产、易包装的初创公司更容易获得融资。另一方面,伴随AI被地方列为重点产业并抢滩布局,给出了前所未有的扶持力度,像北京、上海的AI园区提供免费算力、税收减免,甚至直接给企业“发钱”。当技术、资本和政策的红利同时出现时,市场往往会陷入虚假繁荣。如果将行业泡沫归咎于垃圾公司的短期风口套现,那么活下来的优质企业中,又是什么限制了他们的进一步生长?对于这个问题,最容易想到的原因是“缺人”。此前有研究人员表示,国内AI人才总缺口数百万,一些一线城市的人才需求与当地高校之间存在相差十倍的缺口。今年各家公司春招甚至都开出了百万年薪招揽毕业生,这些岗位大多为算法工程师、数据科学家、模型架构师等核心技术岗,还有一些与AI相关的业务岗,如AI产品经理、AI硬件工程师等。然而,据行业资深从业者透露,当前AI领域的人才争夺战呈现明显的“战略囤积”特征——企业意识到人才是核心资源储备。现实情况中,大部分的AI企业存在“人才到位但效能滞后”的人才空转现象,技术团队与业务部门的协同效率不足,导致人均产出甚至要低于互联网企业。外界对此的解读分为两方面。一是企业未能建立起与AI技术相匹配的组织架构和业务闭环,以阿里的电商业务为例,内部并不是所有人都是代码专家或市场精英,还有大量分布在供应链管理、客户运营、风险控制的支撑性岗位,起到维持商业模式运转的作用。相比互联网紧密连接商业世界,能跨越时空解决问题,对实体商业冲击巨大,改变了人们的生活和消费方式。AI在某种程度上是与商业世界脱钩的,除了优化部分工作流,在实际应用中的程度相当有限。“衡量一款产品成功与否,一定要看它在用户全生命周期上发挥的价值,但AI还远未达到这一要求。”业内人士分析,根本原因一方面在于商业化的路径不清晰,另一方面在于技术本身的局限性,远没有互联网那么大的影响力。另一个观点则认为,当下的AI,或许还并不需要那么多的人。人们对AGI的期待,本质是希望AI能突破单一任务限制,具备人类级别的跨领域推理能力。这种愿景推动了大模型技术的爆发式发展。行业追逐的“超级应用”,以及所谓的“大厂”和相关产业链路,是在现有技术框架下寻找最接近AGI的商业化形态。但当前技术仍处于“弱AI”阶段,大模型存在幻觉、逻辑推理缺陷等问题,距离真正的AGI仍有鸿沟。意味着,AI还要经历漫长的技术验证,才有可能跳出高度聚焦于模型训练或单一场景应用的业务,这一时期,AI呈现出的本质是"智力密度"的比拼,而非互联网赛道人力规模的较量。更深层的挑战,在于AI创业公司后期经营过程中的组织缺陷。尤其是国内企业,普遍存在“研究”与“研发”的认知错位,在高层领导与投资人的push下,科研团队的时间精力,往往被迫用来应付短期的KPI,而非真正的前沿探索。这种现象在高频考核体系下尤为突出,算法团队不得不用有限资源追求更具性价比的短期效果,导致技术迭代陷入“内卷式优化”。因此也就不难理解,DeepSeek创始人梁文锋多次婉拒腾讯、阿里等大公司投资,将量化基金收益全部投入AI研发,在他看来,比起盲目去扩张团队,当AGI实现路径仍不明朗时,与其做垂类和应用寻求变现,更明智的选择是找到真正合适的人才继续深入研究。AI需不需要再造大厂?AI这个概念自诞生之初,最大的想象力来源于对人的替代上。前段时间的Manus就是典型的例子,作为一款通用型Agent产品,上线首周便经历从狂热追捧到舆论反转的一波三折,它的突破性体现在产品形态的创新,能够接管日常的一部分实际工作,这让人们似乎看到了AGI的一些缩影。但在技术专家看来,Manus的底层技术并不复杂,如果市面上同时上线了多款类似的产品,用户怎么选择,将最大限度取决于大模型的精准性,即对人工的真实替代程度。对于企业来说,AI的价值同样体现在“人工替代”,并一度作为企业降本增效的不二法则。就连一些AI公司也已经将数据标注的工作交给Agent工具,这揭示了AI时代的人才配置逻辑:关键岗位需要顶尖专家,基础岗位应通过技术替代实现人力优化。回到核心话题,AI究竟需不需要大厂?这个问题其实是在讨论,AI公司究竟要不要成为腾讯、阿里那样树大根深且涉猎纵深的巨型企业,以及有没有可能孵化出类似微信、淘宝这样的超级应用。AI技术的落地高度依赖数据、算力和人才,阿里、腾讯、字节等凭借长期积累的海量数据、强大的算力基础设施以及顶尖人才团队,在模型训练和场景落地中占据优势。在这一背景下,创业公司往往因资源受限难以直面竞争,但部分专注于细分场景的中小公司,可以提供各种垂类应用,通过单点突破实现商业化。大厂的优势不仅在于技术,更在于业务生态的协同性,腾讯依托微信生态推动商业化发展,阿里通过电商场景优化推荐算法,然而AI产品却呈现出与以往互联网截然不同的发展路径,用户规模红利体现得不明显。当互联网大厂将电商、教育等业务线的精兵强将调往AI部门时,会发现这些互联网时代的战斗单元在AI战场水土不服。传统业务部门习惯的“数据驱动决策”与AI团队的“模型迭代思维”存在本质冲突,前者依赖用户行为数据优化体验,后者需要高质量标注数据训练模型。拿字节CEO梁汝波今年全员会上的描述来说,豆包没显出“越多人用越好用”的互联网产品特性。相比互联网产品依靠用户数据进行优化,当下AI产品大多以生成类工具为主,用户提问数据对于模型优化的好处十分有限。一款拥有几亿甚至几十亿MAU的AI产品,商业价值或许远不如微信;而一家出色的AI企业,也并不意味着一定会成为阿里、腾讯那样的规模大厂。根本的原因,和上一轮互联网浪潮相比,用户规模的增长往往能带来显著的经济效益,这一轮AI浪潮最鲜明的特征是,尽管有大量资本投入,但还未找到稳定的盈利模式,并且呈现出“C端起量,B端买单”的局面。在2025年的AI产业图谱中,技术纵深正在取代用户规模成为核心竞争力。微软研究院的研究表明,具备跨领域推理能力的AI系统,其价值创造效率将呈现非线性增长。但实现这一目标需要的不是用户规模,而是高质量的多模态数据和持续的算法创新。换句话说,当技术走过验证期后,AI或许才能开始讨论用户全生命周期的话题。本文来源:36氪文章转载于其他网络,如有侵权请联系我们及时删除!
-
25
03/10
记账App都这么多了,为啥还有程序员想写?
真别卷了最近世超发现一个现象。就是问大家点外卖、听歌用什么App,答案往往就在那几个里面选。可一旦问到“记账用什么App”,世超敢打赌,不一样的回答会超过10种。有人会说钱迹,有人会说鲨鱼记账,可能也有人会说iCost、Cookie等等。之所以会出现这样的情况,原因并不难猜——一是市面上记账App实在是太多了,请看图简单感受下。。。图源七麦。二呢,这么多App还没出现一家或两家独大的情况。去年有人在v2ex发了个帖子,让大伙儿推荐一款记账软件。结果世超在53条评论里,看到了13款记账App的名字。类似的情况,也出现在三年前的一个帖子里。看到这也许有差友会问,为啥市面上会有这么多记账软件?一句话概括就是:记账软件是独立开发者的helloworld。只要在互联网上稍微搜索下,你就会发现很多记账软件,其实并不是由一家公司从0做到1的。比如钱迹的作者就是一个叫李唐的程序员,他在北京找工作的那段时间,给自己写了一个记账App。后来找到工作后,就用业余时间开发和维护。最后又辞职,全职开发钱迹。比如Cush记账,是由一个叫Shasha的开发者和小伙伴一起制作的。还有Cookie,也是由一个叫wanbo的独立开发者维护。那为什么程序员做独立开发者,要选择做记账App呢?最主要的原因,还是记账的市场太大了。首先,记账有着天然的需求。它可以让你清楚财务状况,培养理财规划。什么钱该花什么钱不该花,心里都有数。其次,我们这些年金钱出入的方式越来越复杂了。像付钱方式,除了支付宝和微信,很多平台也能直接从银行卡扣钱。除了付款,我们还会遇到转账,抢红包,取现,报销等各种情况。这种情况下,支付宝、微信或者某一手机系统的自动记账功能,就很难满足我们的记账需求。所以越来越多人开始下载专门的记账App。根据易观千帆2020年整理的数据,记账理财应用的活跃用户在2700万到3000万之间徘徊。也许你会说需求大的应用多了去,这些开发者为啥就盯着一个记账呢?世超问了一个10年大厂程序员Z,他没有一点犹豫,回复了四个字——容易开发。Z说如果他做一个记账App,几天就能出一个demo。要在iOS平台开发,那更省事,App可以直接借助苹果的同步功能实现数据同步,不需要自己额外搞后台服务。这点世超也认可。因为做起来简单,大公司的技术优势就没有了,你请一支团队能做出来,请一个人也能做出来。所以程序员们跑到这条赛道上,不怕和大公司竞争。简单是其一,其二是变现手段成熟。这类软件的盈利方式,基本已经成型了:基本功能免费,高级功能付费。从付费用户那赚钱,从免费用户那赚宣传和口碑。比如世超在用的iCost,它的基础记账功能都是免费的,像存钱、报销、退款、标签这些都需要会员的。和我解释完之后,Z也跟我提了一嘴,其实不光是记账,还有待办、日历,这三类App都是大家青睐的创业方向,俗称独立开发者三件套。它们都属于“编程effort不大,但是整体产品收益比较高”的产品,大家自然会做。但世超看到这里,还有一点不能理解。开发一款App,谁不想赚点钱?那赚钱的话,去一条全新赛道,去找一个未被发掘,还不存在竞争的蓝海市场不是更简单吗?非要在这几条赛道上挤吗?我把这个问题,抛给了一位推出好几款开源App的独立开发者艾洛。艾洛说,因为这类软件是高度个性化的。每个人记账,写日记,他都有不一样的需求和偏好。所以即便是市场很卷了,但还是有很多程序员觉得“就这App也能大卖?”“我上我也行啊”“关键他也没满足我的需求啊”。抱着这种想法,很多人认为自己能做出更好的,更符合用户需求的软件来。当然了,也不排除不少程序员,是抱着练手的心态来的。想着不管写这个软件有没有未来,但大家都在写这个,我也试试呗,还能看出自身的不足。所以这三件套,到底是推荐做还是不推荐呢?大厂程序员Z觉得,如果自己做独立开发者,估计也会拿三件套练练手。艾洛则说其实自己也想过做。不过他是一个会给自己泼冷水的人。“这个分类太烂大街了,算了吧”,“写出来也不一定能火,那不是白费脑细胞了吗”。去年在即刻上,独立开发者Kenny也分享了一段自己的想法。他不反对开发者做记账、日记、Todo这类产品,但他反对做毫无特色的。比如只是换个皮肤,其它功能几乎和现有产品一样。我认为Kenny说法挺对,我也觉得艾洛那个泼冷水的想法没啥毛病。因为这类软件,真卷到头了。早在几年前,记账软件们就开始往别的地方卷了。比如叨叨记账可以设置一个虚拟聊天对象,记账的同时也能跟这个对象对话。记账城市把记账变成了一个游戏,记一次账就会建造你的城市。大家之所以这么开发,是因为在记账功能上已经没有可卷的余地了。世超在用的记账App,里面的“退款”、“报销”、“多币种”这些功能,很多记账App也能做到。之前有一款记账软件,我用了4年,但我依然能无痛切换到一款新的软件,就是因为功能都大差不差。我觉得,独立开发者的编程能力不是最重要的,最重要的是他的产品设计和思维。前段时间一个没有编程基础的人,借助AI写了一个“小猫补光灯”,它可以显示不同颜色,用于拍照补光。结果它登上了AppStore付费榜第一。所以独立开发者的三件套,拿来练手可以,想赚钱的话,你需要确保自己有一个杀手锏的想法。不然真可能有点浪费时间了。。。本文来源:36氪文章转载于其他网络,如有侵权请联系我们及时删除!
-
25
03/10
OpenAI爬虫疯狂“偷”数据,7人团队十年心血网站一夜崩了,CEO:太离谱才察觉
“这基本上是一次DDoS攻击。”几天前,乌克兰一家专注于人体3D模型的网站Trilegangers突然崩了,这让整个团队以及老板都有些措手不及。起初,该公司CEOOleksandrTomchuk只是收到一则警报,进而发现公司的电子商务网站已完全瘫痪了。一经排查,殊不知,该团队发现,罪魁祸首竟然是——OpenAI此前研发的一款机器人GPTbot。7人花了十余年时间构建的网站,差一点毁于一旦据悉,Trilegangers是一个销售3D扫描数据的网站,这家拥有七名员工的公司花了十多年时间,建立了所谓的网络上最大的“人体数字替身”数据库,即从真实人体模型扫描而来的3D图像文件。Triplegangers提供从手、头发、皮肤到完整身体模型的3D对象文件和照片,一应俱全。其处理的数据涵盖多个类别,如“脸部”、“全身”、“带姿势的全身”、“全身情侣”、“手部”、“手部雕像”等,网站展示的内容正是其业务核心所在。具体来看,以“脸部”数据为例,这一类别中有1509人的数据,每个人注册了大约20种不同的面部表情。在其他类别中,每个产品至少有三张图像,因此总数据据说有数十万个点。这一点也得到CEOOleksandrTomchuk的证实,其表示,“我们有超过65000种产品,每种产品都有一页内容介绍,每页至少有三张照片。”Trilegangers所做的业务就是面向3D艺术家、视频游戏开发者,以及任何需要数字化再现真实人类特征的人群销售这些数据。然而,OleksandrTomchuk称,不久前OpenAIGPTBot发送了“数万”个服务器请求,试图下载全部内容,数十万张照片及其详细描述。这有一种,但凡Trilegangers有的,OpenAI都要的感觉,可是这些内容实则为付费产品。“OpenAI使用600个IP来抓取数据,我们仍在分析上周的日志,也许更多,”该团队在谈到机器人试图访问其网站的IP地址时说道。“他们的爬虫程序正在摧毁我们的网站!”OleksandrTomchuk说,“这基本上是一次DDoS攻击。”那么GPTbot究竟是什么?不难回忆起来,GPTbot是OpenAI在2023年8月推出的一款网络爬虫机器人,用于抓取互联网数据,为训练和改进大模型(如ChatGPT)提供素材。它会自动访问公开可用的网站,收集文本数据来增强模型能力。OpenAI此前表示,GPTBot会严格遵守任何付费墙的规则,不会抓取需要付费的信息,并且也不会收集能追踪到个人身份的数据。即遵循网站的robots.txt文件中明确标示的规则。如果网站配置了禁止GPTBot抓取的标签,它理论上会停止访问该网站。而robots.txt是一个用于网站管理的文本文件,它告诉搜索引擎爬虫(如Googlebot、Bingbot或GPTBot)哪些网页可以或不可以被抓取。这是一种被广泛接受的网络标准,称为机器人排除协议(RobotsExclusionProtocol,REP)。简单来看,如果你不想让GPTBot访问你网站的任何内容,可以将以下代码添加到目录中robots.txt里面:User-agent:GPTBotDisallow:/如果你想要允许访问网站上的某些内容(例如特定目录或文件),可以用以下代码对robots.txt进行以下更改:User-agent:GPTBotAllow:/directory-1/Disallow:/directory-2/除此之外,OpenAI还公布了OpenAI使用的爬虫IP地址,也可以根据IP地址来拒绝访问。OpenAI公开了以上这些方式,并声称会遵守规则,显得诚意满满。然而,令人无奈的是,一切的前提是得正确配置好“robots.txt”文件,才可以尽可能地避免被爬虫。这一次Trilegangers就落到了“robots.txt”的坑中。虽然其在官网“使用条款”的第5条行为准则中清清楚楚地写着:未经TG明确事先书面同意,不得使用任何机器人、爬虫、网站搜索/检索应用程序或其他手动或自动设备来检索、索引、抓取、挖掘数据或以其他方式收集网站内容,也不得复制或绕过网站的导航结构或展示方式。尽管有上述限制,在遵守我们网站根目录中robots.txt文件中发布的任何指示的前提下,TG授予公共搜索引擎的运营者权限,允许其使用爬虫从我们的网站复制材料,但仅限于为创建这些材料的公开可用、可搜索索引的唯一目的(且仅限必要范围内),不得缓存或存档这些材料。TG保留随时和不经通知撤销此权限的权利,无论是一般性撤销还是针对特定情况。未经TG许可,禁止执行以下行为:1.将本网站上展示的任何内容或图像用于人工智能或机器学习(“AI/ML”)研究或研究;2.提取、复制、分发或向任何第三方提供本网站展示的任何内容或图像,用于AI/ML算法的训练、测试或开发;3.参与任何涉及利用本网站内容或图像的AI/ML相关活动,包括但不限于数据集编制、模式识别、神经网络训练或任何形式的计算分析。任何试图在未经TG有效许可的情况下将本网站内容或图像用于AI/ML目的的行为,均被视为违反本网站条款及我们的供应条款与条件,可能导致法律诉讼,并寻求适用法律下的一切补救措施。但如今看来,仅凭这一点的声明毫无作用,GPTBot还是爬取到了其网站的内容,还让网站整个宕机了。对此,据Techcrunch报道,此次Trilegangers并没有正确使用robot.txt,其中的标签没有明确告诉OpenAI的机器人GPTBot不要爬取该网站内容。这就意味着OpenAI和其他公司就会认为他们可以随心所欲地抓取数据。更令人气愤的是,即使Trilegangers告诉了GPTBot不要抓取自家网站的内容,谁能料到,OpenAI还有ChatGPT-User和OAI-SearchBot机器人用来做爬虫工具。还值得注意的是,即使更新了网站的robots.txt,也不要掉以轻心,因为OpenAI的系统可能需要大约24小时才能才能识别更新的robot.txt文件。https://platform.openai.com/docs/bots正所谓爬虫的工具千千万,企业有时根本防不胜防。“如果爬取的数据少一点,或许都发现不了”就像这一次,如果不是OpenAI的GPTBot爬取的数据过于庞大,也许Trilegangers可能还发现不了。Tomchuk在接受外媒Techcrunch采访时表示,「如果爬虫更加“温和”地抓取,他可能永远都不会发现。」“这令人害怕,因为这些公司似乎钻了一个漏洞,声称‘你可以通过更新带有我们标签的robots.txt文件选择退出抓取’,”Tomchuk说,但这实际上把责任推给了网站所有者,让他们必须了解如何屏蔽这些爬虫。更可怕的是,Tomchuk称他们连GPTBot究竟是从何时开始抓取的都不知道,更不要说OpenAI具体抓取了哪些内容。这也让Tomchuk有些担心,“我们的业务对权利要求非常严格,因为我们扫描的是实际的人体,按照欧洲的GDPR等法律,他们不能随便拿网络上的任何照片使用。”事件发生后,Triplegangers的网站不仅因OpenAI的爬虫被迫下线,CEOTomchuk还预计将收到一份因爬虫导致的高CPU消耗和大量下载活动而产生的高额AWS账单。同时,Tomchuk称他也没找到可以联系OpenAI的方法,也无法让他们删除这些素材。为此,Tomchuk无奈之下选择用Trilegangers官方Twitter账号发了一条致OpenAl、Microsoft、Meta、Google和其他使用爬虫程序的公司的官方声明:除用于搜索目的的页面索引外,严禁在我们的网站上使用爬虫程序。未经有效许可,产禁将我们网站上的任何公开内容用于AI或ML应用程序。截至目前,Triplegangers配置好了正确的robots.txt文件,并创建了一个Cloudflare账户,用于阻止GPTBot以及他发现的其他爬虫,例如Barkrowler(一个SEO爬虫)和Bytespider(TikTok的爬虫)。引发争议的数据爬取Triplegangers的经历引发了广泛关注,其公开此事后,不少其他网站运营者纷纷表示也曾遭遇类似情况。markerz:我的其中一个网站曾被Meta的AI爬虫Meta-ExternalAgent完全摧毁。这个爬虫似乎有些“天真”,没有像GoogleBot那样进行性能回退(performanceback-off)。它不断地重复请求内容,直到我的服务器崩溃,然后短暂停止一分钟,再次发起更多请求。我的解决方法是添加了一条Cloudflare规则,直接屏蔽该User-Agent的请求。我还为链接增加了更多nofollow规则,并更新了robots.txt文件,但这些规则仅仅是建议,某些爬虫似乎会忽略它们。Cloudflare还有一个功能可以屏蔽已知的AI爬虫,甚至怀疑是AI爬虫的请求:https://blog.cloudflare.com/declaring-your-aindependence-block-ai-bots-scrapers-and-crawlers-with-a-single-click/。尽管我不喜欢Cloudflare的集中化,但这个功能确实非常方便。griomnib:我从事网站开发已经数十年,同时也从事过爬取、索引和分析数百万个网站的工作。只需遵循一个黄金法则:永远不要以比你希望别人对待你的网站更激进的方式加载其他网站。这并不难做到,但这些AI公司使用的爬虫既低效又令人厌恶。作为一个网站所有者,这种行为让我觉得他们对网络的基本礼仪毫无尊重。而作为一名从事分布式数据采集的工程师,我更是被这些爬虫的糟糕和低效深深冒犯了。至此,Tomchuk也分享了他想把这一经历公开的原因,他希望其他小型在线企业了解,发现AI爬虫是否在抓取网站的版权内容的唯一方法就是主动检查日志。他并不是唯一一个受爬虫“侵害”的人,也绝非最后一个。Tomchuk警告道:“大多数网站甚至不知道自己被这些爬虫抓取了。现在我们不得不每天监控日志活动,以发现这些爬虫。”本文来源:36氪文章转载于其他网络,如有侵权请联系我们及时删除!