编程技术分享平台

网站首页 > 技术教程 正文

看清AI不能解决的问题_看清ai不能解决的问题有哪些

xnh888 2025-10-14 06:39:36 技术教程 18 ℃ 0 评论

AI的发展突飞猛进,它的潜力能带来变革,让研究人员和用户都为之着迷。

不过,尽管AI大受欢迎,但它只能解决非常具体的问题。在这篇文章中,我们将提供指导,帮助了解什么问题适合利用AI解决,什么不适合。

1.缺乏高质量数据

一开始使用的数据集非常大但质量很低,想要通过合成数据来提高数据质量就会非常困难。

从互联网上抓取的数据——可能包含各种信息、格式、语言、主题和方式,就属于规模大但质量低的数据集。

多数情况下,尝试提升其质量并不值得,因为需要花费大量的努力和时间。

且在这种数据集中,模型也找不到合成数据的“正确答案”。

比如,当询问哪个食谱能做出完美的比萨时,答案最可能是“这取决于情况”。这种细微差别和对上下文的需求,使得模型无法结构化语言和常识,从而难以创造出高质量的数据集。

2.潜在的解决方案太多

当一个问题有太多解决方案时,想要通过“蛮力”的方法——穷举测试。

所有的答案组合来解决问题,就变得不切实际了。从历史上看,这种问题一直是通过启发式的方法来解决的:用一些简单的规则,找到能满足大多数情况的“足够好”的解决方案,而不是最优解。针对有无数解决方案的复杂问题,运用AI是一种前景广阔的选择。

然而,随着潜在解决方案越来越多,如何验证每个方案的质量也变得更加困难。

例如,LLM擅长生成有创意和多样的答案,但也面临着“幻觉”现象的问题,即生成与事实不符的信息。

这削弱了人们对其的信任。

因此,找到方法,确保LLM生成的解决方法是正确的、可验证的,已成为推动LLM能力发展的关键。

3.缺乏明确的、可衡量的目标

目标函数(也称为奖励函数)是AI模型试图实现的目标或输出。

换句话说就是,我们要向模型提出正确的问题。确定“你希望模型做什么?”是任何机器学习系统中最困难的部分之一。以象棋或围棋等游戏为例。这些游戏有清晰且可衡量的目标,比如分数或一套决定胜者的规则,而且迭代成本低,让AI能快速学习。

但在现实世界中,目标通常是复杂且无序的,我们没有一个简单的度 量标准来衡量进展。如果没有明确且可衡量的目标,定义“好”的标准就会变得困难。

目标越模糊,模型的表现就越差。

4.当“好”无法被写进代码里

组织面临的问题通常是动态变化的。加上前述的无法简单识别某个解决方案是否有效,AI可能会有逐渐偏离最佳答案的风险。

人类擅长凭直觉判断什么是一个“好”的视频描述,而计算机历来很难做到这一点,所以也很难为每个视频都编写出“好”的描述。

为了克服这一挑战,越来越多的技术开始采用带有人类反馈的强化学习。

通过直接将人类反馈输入到模型的下一轮迭代中,模型能够通过试错学习,直观地掌握什么样的描述是“好”的,并不断地优化它。模型通过不断学习和适应新信息,使得它能够随着社会审美和规范的变化而不断进化。

本文暂时没有评论,来添加一个吧(●'◡'●)

欢迎 发表评论:

最近发表
标签列表