迅速转型的风险

最近围绕谷歌图像生成的争议,谷歌被指控故意设计其双子座人工智能应用程序来生成“醒来”的图像,这凸显了人工智能开发中的一个概念,即“提示转换”. 大多数用户通过提示与AI大型语言模型(llm)交互, 用于输入文本或图像以向法学硕士提出问题或指示它做某事的界面. 提示转换是在将提示传递给LLM之前对其进行修改.

这种修改可以实现多个目标,包括为提示提供额外的上下文,增加获得更准确、更相关的用户问题答案的可能性. 这可能会提供更好的用户体验.

它还可以用作风险管理技术,以减少结果集有偏差或以其他方式有害的可能性. 这就是谷歌试图用它的双子座图像生成功能做的事情. Gemini的基础法学硕士是使用公共互联网上可用的数据进行训练的,并且在该数据集中包含固有的偏见. 如果你问一个训练有素的模型, 不操纵提示符, 生成一个消防员的图像, 照片很可能是一名白人男性.


Why?

互联网上绝大多数被标记为消防员的照片都是白人男性. 这种偏差是无意的,只反映了潜在的训练数据. 这种偏见的挑战之一是,某些地区或社区的用户可能会认为输出不准确,甚至有害. 中国或肯尼亚的用户不太可能将消防员视为白人男性.

谷歌使用提示工程为用户的提示添加上下文, 这就产生了不同种族的人类形象. 问题是生成已知人物的图像, 就像美国的开国元勋一样, 或者已知的类别, 就像二战中的德国士兵, 种族特征与我们所了解的不一致吗. 这导致谷歌被指责为“醒了”.”


做好事没有不受惩罚的

这一事件暴露了使用AI应用程序和管理体验以产生更好的结果并限制可能冒犯特定用户群的输出的潜在负面影响的挑战之一.


会出什么问题??

即时转换有其自身的风险,因为它是另一层软件,使用一些相同的人工智能技术作为核心平台, 比如自然语言处理和情感确定, 推断用户的目的,减少潜在的危害. 软件可能有必须理解、测试和缓解的缺陷和漏洞. 这可能会增加人工智能应用程序的复杂性,就像谷歌的案例一样,弊大于利.

人工智能应用程序需要经过深思熟虑的设计和工程,并且通常不像看起来那么容易实现.

Insights & News

Gen AI简单按钮在哪里?

Gen AI简单按钮在哪里?

关于新一代人工智能的讨论已经达到了狂热的程度. 在最近的达沃斯世界经济论坛(WEF)上,这是所有人都想讨论的话题. Sorry ESG. Sorry Crypto. 就像我女儿常说的——“你是最后一个。...

read more

看看GEG能为你做些什么.