跳过导航
跳过mega-menu
的帖子

世代游戏:在商业中利用生成式AI时需要考虑的要点

到目前为止,我们中的许多人都玩过Chat-GPT、Dall-E和其他生成式人工智能产品. 我们将看到这些工具是多么强大和令人印象深刻. 我们可能也想知道这一切究竟会走向何方, 这对我们的业务意味着什么, 以及事情变化的速度有多快. 虽然前两个问题的答案有待推测,但第三个问题更容易回答. 事情发展得很快.

同样清楚的是,这种性质的工具是伟大的仆人,但也是危险的主人. 虽然将这些技术“即插即用”应用到企业中可能很诱人, 如果对生成式人工智能的实验超越了测试平台,进入了开发可供销售的产品和服务的现实世界, 事情很快就会变得真实. 如果处理不当,企业可能会积累大量问题.

这个问题说起来很简单——随着生成式人工智能嵌入到日常工作的工具集中, 组织必须花点时间思考他们正在吸收和输出什么. “赢家”将是那些实施结构的企业,这些结构确保它们能够利用人工智能的好处,而不会让自己承担不必要的责任和风险.

企业做不到这一点的地方, 有一种危险是,在该组织中,生成式人工智能将被用作产生看似合理但不可靠的输出的捷径, 然后,他们几乎不用多想就可以自由地进入更广阔的世界.

具体而言,机构应留意以下主要风险:

  • 声誉损害——使用生成式人工智能为客户创造有偏见或低质量的结果, 冒着声誉严重受损的风险.
  • 项目延迟——在没有适当监控的情况下使用生成式人工智能会产生有意义的风险,即使用它的项目可能需要废弃或重做, 这牵涉到所有的成本和时间.
  • 丢失有价值的公司信息——同事违反公司信息使用的正常规则,在工具中输入文本,可能会有丢失有价值的公司数据的风险.
  • 信赖风险——使用未经试验的技术, 这些都是未经验证的, 可能, 至少造成尴尬, 在最坏的情况下,会导致对基于错误的决策承担责任. 至少以目前的形式是这样, 许多生成式人工智能能够(令人信服地)呈现不准确的信息,就好像它是事实一样. 因此,任何输出都需要仔细地进行事实核查和审查.
  • 知识产权侵权生成人工智能可以创造新的内容, code, 文本, 以及瞬间的影像, 但是你怎么知道这是否侵犯了第三方的知识产权呢?
  • 监管违规——有一个新兴的全球监管机构,所有生成人工智能的使用都需要遵守. 这包括什么是可接受的和不可接受的用例, 在使用人工智能时,需要向客户提供哪些信息, 甚至是注册要求. 任何超出这些法规条款的使用都有可能使组织受到监管罚款或对受影响的客户进行赔偿.
  • 安全和数据生成人工智能产品从组织内部和外部来源摄取敏感和个人数据. 如果不能正确理解和管理数据的使用,数据丢失或误用的风险是很大的. 除了, 任何与这种生成式人工智能系统共享包含个人数据的内容都可能违反隐私法.
  • 合同违约——如果一个组织试图使用基于云的生成人工智能系统作为其向客户交付模式的一部分,那么从保密条款到分包要求的一切都可能被违反.
  • 可用性和服务级别——其中一些工具的“专业”版本正在发布,并承诺提供可用性和服务级别, 试图围绕免费工具的持续可用性构建业务功能是危险的,因为免费工具可能在关键时期很容易离线.
  • 劳资关系问题——如果员工看到人工智能被使用, 这可能会引起全球最大的博彩平台角色和就业保障的问题.

考虑到这些风险, 那么,在2023年上半年,当考虑使用生成式人工智能时,组织应该关注什么? 我们认为,这一切都与善治有关.

  • 确保任何使用生成式人工智能的新产品或服务都经过适当的范围界定和风险/效益评估, 确保它能够以合规的方式使用,并了解需要采取哪些保障措施.
  • 花点时间去了解系统是如何工作的,它的能力和局限性. 它是如何训练的? 训练数据集是最新的吗? 训练数据集在人工智能中编码了什么样的偏见(可能是无意的)?
  • 在产品或服务推出前对其进行测试, 并在其整个生命周期中持续进行, 以确保其在法律范围内按预期运作.
  • 确保在生成式人工智能嵌入产品或服务之前,对其输出进行人工监督.
  • 在产品或服务被以一种最初推出时没有预料到的方式使用时,采取适当的保护措施.
  • 确保满足所有法规要求, 包括, 在必要时, 记录, 审核跟踪和产品注册.

这并不意味着组织应该放慢对生成式人工智能的探索和使用. 应该发生什么?, 与探索并行, 组织是否必须确保他们有适当的检查和平衡来安全使用它.

如果你想了解更多的问题, 以及你应该采取的步骤, 请浏览我们的 网站.

十大正规博彩网站评级

在这里注册

" class="hidden">轩辕春秋文化论坛