生成式 AI:机会与风险并存,企业该如何取舍?

这篇具有很好参考价值的文章主要介绍了生成式 AI:机会与风险并存,企业该如何取舍?。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

生成式 AI:机会与风险并存,企业该如何取舍?

作者 | 李晨

编辑 | Debra Chen

Gartner最近对全球2,500名高管进行的一项调查发现,近一半(45%)的人表示,ChatGPT的宣传促使他们增加人工智能(AI)投资。调查报告称,70%的高管表示他们正在调查人工智能的使用,而19%的高管正在试点或已经在生产中部署人工智能。

Gartner发现,大量组织正在使用ChatGPT等生成式AI来改进宣传内容或者生成代码。这种技术可以增强使用者的能力,并可以自主执行业务和IT流程,生成式AI可以潜在地取代或补充多项工作任务。调查发现,68%的高管认为生成式AI的好处大于风险,而只有5%的人认为风险大于收益。然而,随着使用程度的不断深入,高管们可能会开始改变他们的观点。

Gartner给出了建议和警告:“最初对新技术的热情可能会让位于对风险和实施挑战的更严格的管控,组织在开始开发和部署生成式AI时,可能会遇到许多信任、风险、安全、隐私和道德问题。”

ChatGPT,文心一言,Bard或通义千问等工具使用先进的机器学习技术来生成复杂的文本。生成式AI的好处包括易于培训和定制化、降低运营成本和7x24全天候服务。然而,尽管有这些好处,但像ChatGPT这样的生成式AI工具确实存在着捏造信息、泄露隐私和错误引导等风险。

生成式AI如何提供业务价值?

生成式 AI 是一种特定自然语言处理(NLP)工具,该工具以类似人类的对话方式生成对用户提示或问题的响应。生成式AI分析和“学习”各种类型的数据:文本、音频、图像,并生成类似人类的输入答案。

在用于客户服务目的的生成式AI的场景下,组织通常将该工具集成到基于文本或语音的聊天机器人中,用于完成以下任务:

  • 回答客户有关产品或服务的问题。
  • 自动化完成订单,换货和退货。
  • 提供多种语言服务。
  • 将用户引导至FAQ和服务团队寻求帮助。

根据企业业务的不同,客户服务用例可能会有很大差异。但是ChatGPT这类生成式AI工具确实帮助企业提升了AI机器人对客户服务的效率和准确率。

生成式AI在企业应用中的风险

尽管有好处,但像ChatGPT这类的生成式AI工具也有不少缺点,甚至是致命问题。因此,企业在将重要业务控制权移交给AI机器人之前必须了解以下风险:

  1. 捏造信息

生成式AI机器人的有用性取决于它们拥有的信息。在某些情况下,人工智能可能会错误地解释信息,或者使用不充分或过时的信息。如果人工智能系统学习到不准确或捏造的数据,它可能会对用户问题产生不正确的回答。

生成式人工智能聊天机器人还可以创造连贯的废话,自信而雄辩地做出虚假陈述。在这种情况下,生成式AI工具会生成随机且不准确的输出,这会使用户感到困惑,捏造的信息也可能导致用户对该工具失去信任,从而降低其实用性。

  1. 隐私泄露风险

隐私泄露风险是指用户不知情情况下,个人的私密信息被泄露,或者通过其他信息被ChatGPT推断出来的隐私信息。在使用 ChatGPT 过程中,个人、企业、甚至国家的机密信息都可能泄露。

个人信息的泄露可能会对个人的心理健康、人身和财产安全造成影响。而国家或企业商业机密则往往只有少数人能够获悉,这些信息的泄露和传播可能会危及国家和企业的安全。此外,即使用户未直接泄露私密信息,ChatGPT 在不断学习的过程中,也可能自行推断出这些信息,增加了隐私信息被推导出来的风险。

  1. 有偏见的信息

人工智能模型可以学习识别和描述对象,以区别很多相似的名字或外观,但ChatGPT使用和分析的数据是来自数十亿个网页的数据。因此,在互联网上存在的种族或政治偏见可以被夹带到工具的输出中。

如果一个企业的生成式AI聊天机器人产生种族主义、歧视或政治偏见的回应,该企业的品牌可能会受到严重损害。

  1. 缺乏同理心

ChatGPT可以在其回复内容中模拟人类口吻和行为,但它仍然缺乏真实人类的同情心和同理心。如果一个愤怒的客户与一个缺乏真正人类情感的AI机器人互动,他们可能会变得越来越沮丧和愤怒。

  1. 安全问题

与任何网络连接技术一样,一些组织或个人可以秘密地将虚假信息插入生成人工智能系统。例如,他们可能会插入受恶意软件感染的链接或网络钓鱼做法,为AI提供向用户传递恶意软件和网络钓鱼信息的机会。

企业应该使用生成式AI吗?如何使用更稳妥?

在这个AIGC时代,生成式AI会极大的改变社会运行方式和企业商业运行逻辑。客户服务和咨询行业、金融和银行业、制造业、教育行业、翻译、影视制作、图像服务等行业都会迎来翻天覆地的变化。我们不要因噎废食,因为生成式AI有这样或那样的风险就不去使用,这样会使个人或企业错过技术革新而失去竞争力。但是,也需要在使用时进行细致的规划和规范的管理。建议企业在使用生成式AI时遵循以下原则:

  1. 用户教育和安全意识提升:

提高用户的教育和安全意识是确保安全使用生成式AI的重要措施。平台和开发者应该提供明确的使用指南和行为准则,向用户解释生成式AI的工作原理、其生成内容的特点以及潜在的风险。推广数字素养和信息鉴别能力,帮助用户更好地辨别虚假信息、不当行为和恶意攻击。开发者可以开展宣传活动、举办培训和研讨会等,让用户了解生成式AI的应用场景、限制和风险。通过增加用户对生成式AI的认知,可以帮助他们更加谨慎地使用,并主动参与保障使用生成式AI的安全性。

  1. 私有化部署生成式AI大模型,并尽量使用自有完整数据进行二次训练,而非直接采用外部服务或现成大模型:

对生成式AI进行有效的训练和筛选是必要的,训练数据的质量和多样性对于生成出准确、有用的回答至关重要。通过对训练数据进行筛选和审核,去除虚假、有害或误导性的内容,能够提高生成式AI的可信度和安全性。经过内部完整数据的二次训练,会让生成式AI更懂实际业务场景和正确的应对内容,提供给用户的反馈信息就会更准确,针对性更强。

  1. 完善管理策略, 遵循国家政策或法律法规,避免产生道德、隐私或安全问题:

实施内容审核和监管机制是确保生成式AI安全使用的关键一环。平台和使用者应该加强对生成内容的监控和审核,及时发现和处理不当的言论或内容。建立机制,使用户能够报告有害或违规内容,从而保障平台的安全和用户的权益。

如何私有化部署大模型并快速训练?

面对以上问题,有不少企业希望训练自己的私有化GPT大模型,但是不菲的硬件投入成本和时间成为最大的阻碍,让很多尝试拥抱生成式AI的企业望而却步。如何能用最小的代价,快速训练出安全、准确、适用的GPT大模型?Apache顶级开源社区海豚调度- DolphinScheduler给出了答案。

Apache DolphinScheduler是一个Star超过1万的大数据和AI的调度工具,它是Apache软件基金会旗下的顶级项目,这意味着你可以免费使用它,也可以直接修改代码而不用担心任何商业问题。在AIGC领域,DolphinScheduler的目标是让任何对GPT大模型有需求的个人或者企业,都能享受到拥有更“懂”自己的模型的乐趣,每个人或企业都有权利和能力去塑造自己的AI助手,而DolphinScheduler可见即所得的工作流程为此提供了可能。

无论你是业界专家,寻求用专属于你的数据来训练模型,还是AI爱好者,想尝试理解并探索深度学习模型的训练,DolphinScheduler都将为你提供便捷的服务。它为你解决了复杂的预处理、模型训练、优化等步骤,只需1-2个小时几个简单的操作,加上几十小时的运行时间,就可以构建出更“懂”你的定制化ChatGPT大模型。

在这个以数据和技术驱动的世界中,拥有一个专属的生成式AI模型具有无法估量的价值。随着人工智能和深度学习的日益发展,我们正处在一个可塑造个性化AI助手的时代。而训练和部署属于自己的生成式AI模型,可以帮助我们拿到更准确,更安全、更可信的结果,更好地利用AI实现业务价值。

总体而言,自训练和部署生成式AI模型可以帮助你更好地保护数据安全和隐私、满足特定的业务需求、节约技术成本,同时通过工作流工具如DolphinScheduler使训练过程自动化,可以加速这一工作的实现。更多信息,请访问海豚调度官方网站 https://dolphinscheduler.apache.org/ 或者关注微信公众号 “海豚调度”

本文由 白鲸开源 提供发布支持!文章来源地址https://www.toymoban.com/news/detail-710132.html

到了这里,关于生成式 AI:机会与风险并存,企业该如何取舍?的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 四大攻击类型并存,NIST 警告人工智能系统带来的安全和隐私风险

    美国国家标准与技术研究院 (NIST) 近日发布了有关对抗性机器学习 (AML) 攻击和缓解措施指南, 呼吁人们再度关注近年来人工智能 (AI) 系统部署增加所带来的隐私和安全挑战,并表示这类系统目前没有万无一失的方法进行保护。 NIST指出,这些安全和隐私挑战包括恶意操纵训练

    2024年02月03日
    浏览(42)
  • 企业面临的IP风险,如何应对?

    IP风险画像为企业或组织在知识产权领域面临的潜在风险和威胁的综合概览。通过对相关知识产权的保护和管理,企业可以预测和应对潜在的法律、商业和声誉风险。 IP数据云帮助企业更好地了解和应对知识产权方面的风险。并提供了关于当前全球知识产权环境的重要信息,

    2024年02月10日
    浏览(46)
  • 【SaaS播客】onboard20. 生成式AI AIGC:硅谷AI大牛、投资人、创业者眼里的机会与挑战

    近期IT领域最火热的话题就是AIGC了,可以说是真正出圈了,这个词貌似是百度大力推广的;国际上用得更多的是Generative生成式AI。最近的热点是“真”智能聊天的产品chatGPT。我认为对上层产品而言最关键的是这2个里程碑: 20年中OpenAI推出GPT-3 OpenAPI,其它公司能够基于大模型构

    2024年02月09日
    浏览(56)
  • 期望风险与人工智能安全:如何保护企业免受未来技术风险的影响

    随着人工智能(AI)技术的不断发展,越来越多的企业开始将其应用于各个领域,以提高效率、降低成本和创新产品。然而,与其他技术相比,AI具有更高的潜在风险,包括隐私泄露、数据盗窃、系统安全性等。因此,企业需要采取措施来保护自己免受未来技术风险的影响。 在本

    2024年02月20日
    浏览(58)
  • 【项目管理】CMMI-风险与机会管理过程

    风险与机会概率指的是风险与机会实际发生的可能性。可以用自然语言术语来映射数字概率范围。下表列出了七段概率分级中自然语言术语和数字概率范围映射关系。注意,用来计算的概率值等于概率范围的中间值取整。有了映射表格的帮助,可以通过自然语言表达来在下表

    2024年01月22日
    浏览(58)
  • AI作画热度正盛,内容创作者应该如何看待?

    AIGC(AI-Generated Content),即人工智能生成内容,这个概念在这一年里的热度不断攀升,人们讨论得如火如荼。与往常不同的是,这一次不止是科技圈和AI爱好者们的狂欢。AIGC的爆火同样影响到了资本圈,和内容创作者们。 人们往往会更关心跟自己密切相关的事情。对于资本们

    2024年02月09日
    浏览(49)
  • 天拓四方分享:危化品企业如何搭建安全生产风险预警防控平台?

    危化品企业作为高风险行业,其安全生产问题一直备受关注。为了有效预防和控制危化品企业在生产过程中可能出现的安全风险,提高企业的安全性和稳定性,搭建一套有效的安全生产风险预警防控平台势在必行,通过平台实现危化品生产、储存、运输等全流程的实时监控和

    2024年02月02日
    浏览(55)
  • 格子达AI高风险:如何应对并降低潜在风险

    大家好,小发猫降重今天来聊聊格子达AI高风险:如何应对并降低潜在风险,希望能给大家提供一点参考。 以下是针对论文重复率高的情况,提供一些修改建议和技巧,可以借助此类工具: 格子达AI高风险:如何应对并降低潜在风险 随着人工智能技术的飞速发展,AI辅助工具

    2024年03月14日
    浏览(54)
  • 论文AI高风险如何降低【解决方案】

    在当今的科技时代,AI技术已经渗透到各个领域,尤其在论文写作方面,AI工具的运用大大提高了效率和准确性。然而,与此同时,我们也不得不面对其带来的高风险问题。本文将围绕如何降低论文AI的高风险进行详细阐述,从七个方面提出应对策略。 一、建立严格的训练数据

    2024年01月23日
    浏览(96)
  • AI诈骗肆虐,平台如何做好AIGC风险管理?

    老牌歌星合唱的梦幻联动,实则是AI合成音频,但可达到以假乱真的地步;某男子因遭遇AI换脸骗术,9秒被骗245万;某带货直播间,使用AI换脸黑科技,粉丝误以为当红女明星直播带货...... 随着AIGC的爆火,给予冲浪选手们更新奇体验的同时,以AI实施犯罪的团伙也猖獗在互联

    2024年02月11日
    浏览(51)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包