在十大电子游艺的历史性周末, 人工智能专家小组讨论将改变历史的技术

丽贝卡·戈德芬
作为 萨法·扎基总统就职庆典, a diverse panel of artificial intelligence experts reflected on how society might best position itself to embrace the new technology and generate the most good.
人工智能小组成员(左至右)埃里克·乔恩、Chowdhury Rumman公司、丹尼尔李、卡洛斯Montemayor和Peter Norvig. 
从左至右:主持人埃里克·乔恩和小组成员Chowdhury Rumman公司, 丹尼尔李, 卡洛斯Montemayor, 还有彼得·诺维格.

这四位发言者包括定量科学家 Chowdhury Rumman公司他是电气和计算机工程教授 丹尼尔李,哲学教授 卡洛斯Montemayor和计算机科学家 Peter Norvig

讨论由……主持 埃里克·乔恩鲍德温学院数字与计算研究的莎拉和詹姆斯鲍德温教授.

在她对周五下午活动的介绍中, Senior Vice President and Dean for Academic Affairs Jen Scanlon said it's imperative that higher education equips its students with the tools and contexts to engage with "the sweeping" technology, 问一些问题,这些问题会引导我们以富有想象力和人道的方式从中获益, 探索和遏制问题, 推进未来."

以下是随后讨论的编辑和浓缩版:

乔恩: Please talk a bit about what got you interested in AI and what you’re excited about doing in that world today.

Chowdhury: What is exciting to me 正确的 now about AI is the increased accessibility of the kinds of models that have generally been housed in Silicon Valley and exclusive tech environments.

我对人工智能的兴趣在于我们如何让人工智能系统在现实世界中发挥作用? 说到现实世界,我指的是我们日常生活中肮脏的物理和混乱. How can we interface with the new intelligence we’re building so it actually improves people’s lives?

乔恩:十大电子游艺的学生毕业时应该了解哪些人工智能知识?

Norvig: 他们应该知道如何使用当前的工具. 他们应该意识到即将发生什么,什么是可能的,什么是科幻小说. 他们也应该意识到各种威胁和承诺. 所以如果你在考虑医学的未来, 有多大可能会有惊人的发现导致治愈? 如果他们进入政界,他们应该担心虚假信息. 你不需要知道所有的技术细节, 人工智能在幕后是如何运作的, 但你必须知道影响.

Chowdhury:
The critical thing here is to be smart about the output and input—what is the data you’re giving up, 还有摆在你面前的东西? 因为它变得更加现实, 对你来说更有针对性, 击中所有让你情绪激动的东西, 你怎么能, 作为一个思想家, 退一步, 看看情况, 然后问, “这是真的吗?? 它是否推动了我想要看到的那种变化? 还是它在操纵我?"

许多人工智能的设计语言要求我们放弃思考...and I think that is what drives a lot of the fears people have about the technology—that they will no longer have agency.

Montemayor: 应该问的是,“人工智能将如何帮助每个人? 它怎么可能是民主的? 我们如何利用人工智能的潜力造福大多数人,或者理想情况下造福所有人?"

Norvig:
放弃控制权的想法:我认为如果你放弃了控制权,那么这个系统的设计就很糟糕. 我们应该考虑两个维度,然后说,“如果我想,我应该有更多的自主权。.“但还有一个单独的维度,我们也可以有更多的控制. 应该有一个系统,我们有更多的自主权和更多的控制, 如果我想放弃控制权,我可以, 但我不应该被迫做出这样的取舍.

乔恩:科技和不平等的历史并不美妙, 正确的, 还有很多人无法接触到人工智能,在不久的将来也不会. So how can AI be the driver that improves inequity instead of just another technology that creates more haves and have-nots?

Chowdhury世界上还有大片地区连互联网都没有...and entire parts of the country that aren't participating in what we would consider the rudimentary digital world. The starting point is how do we get internet connectivity to more parts of the world [if they want it]?

李: 这些系统是建立在海量数据之上的. 如果你的数据集对当权的人有偏见, 人工智能系统产生的任何东西都会放大这些偏见. 目前有很多工作要消除这些偏见, 包括训练集和学习算法, 但这仍是一个新兴领域, 人们还不知道如何正确地做这件事.

Norvig一件好事是水涨船高, 但科技浪潮往往会提升游艇而非划艇. A 最近的研究 着眼于呼叫中心的工作人员,并让他们使用人工智能工具. They found that less-skilled workers got more benefit than the high-skilled workers…So I think here there may be a potential to lift up more people than in most cases of technology.

Montemayor: 我们需要进行对话. 越多的公众和越多的大学参与到这一对话中, 技术被正确使用的机会就越大.

乔恩: The users of AI are asked to trust that it will do good things for us and trust that the companies making AI have our best interests in mind. But generative AI and what it produces is helping to make us trust each other and the information we get less. 你们能从自己的角度谈谈信任吗?

李: 如何建立信任? 从社会角度来看, 你证明了这点, 如果你交付给我的产品我同意,或者我能以某种方式验证, 这样可以建立信任. 如果你建立一个人工系统, it will also have to go through some sort of protocol like that where humans can validate that it is doing the 正确的 thing at the 正确的 time.

Chowdhury: I don’t think we should trust the technology blindly or trust the companies to automatically do the 正确的 thing. 公司的激励并不一定就是你的激励, 而不一定是导致人类或社会繁荣的动机. You know the brakes on your car will work not because you automatically trust that Ford will do the 正确的 thing, 而是因为有法律. 如果公司违法, 他们被罚款了, 有召回, 已经建立了一些方法——所有这些都导致了你对技术的信任. For AI to be integrated into the systems of everyday lives there is a massive trust barrier to overcome, 这很好. It is good that the bar to being considered trustworthy is high for technology that could be telling you what you should think, 或者做决定, 或者帮你写东西. 只有当出现问题时有标准和追索权时,信任才会出现, 而现在,在我们的领域,这些都不存在.

Norvig我想描述一个可能的未来,我有一个手机上有一堆图标. 当我按1时, 我把我所有的信息都泄露给了优步或唐恩都乐, 或者是某家公司, 我必须相信他们会对我有好处. 我知道他们想留住我这个客户,所以他们有动机站在我这边. 但大多数情况下,他们站在自己这边,而不是我站在我这边. 如果我们把所有这些按钮换成一个按钮,上面写着, “我是你的经纪人, 我站在你这边.“所以你只需要信任这一个程序, 然后它会去优步,让一辆车或一份披萨到达, 现在你要分配的信任就少了. 人工智能仍然需要赢得这种信任, 但在未来的世界里,代理人可能站在我这边, 不是公司这边.

乔恩:未来人工智能将如何帮助十大电子游艺的毕业生和观众们获得成功? 

Chowdhury: 100多年前,在上一次工业革命中,我们也有过类似的对话...十大电子游艺我们将如何利用这些空闲时间. 人们谈论一周只工作三天, 花四天时间学习一种乐器, 写小说, 照顾好家人. 我们也通过电子邮件和数字电话进行这些对话. But they didn’t make our lives faster or easier; they made us work more. 为了拥有一个繁荣和真正富有成效的生活, 首先,我们需要将生产率定义为对GDP的贡献. 第二个, we need to be very intentional…we have to collectively agree that this freed-up time and ease of getting and doing things will not lead us to spend time doing more work; we will spend that time doing something else. 这很难, 因为我们一直被过度训练去争取那枚金戒指, 下一个金戒指在高一点的地方. 

Montemayor: 至于繁荣, 上一次工业革命, 以及最近的数字革命, 结果并不是对全人类都有好处. 有了这项新技术, 我们至少有机会思考它将如何解决问题. There has to be a political discussion for how to use this technology…We have more potential than just helping workers and releasing us from constantly chasing the next opportunity, 但我们需要思考这到底意味着什么...I think that is what is interesting about universities—these are places where we should think of these things and use the tools we have and the understanding we have across disciplines to help achieve these larger goals and spur the social dialogue we need to have. 

Norvig:
一种看待它的方式是我们希望我们的系统与我们真正想要的保持一致, 随着时间的推移,我看到了我们如何解决这个问题的变化。. 最初, 软件就是十大电子游艺算法的, 然后是十大电子游艺大数据的, 现在是第三次转变, 我们有很好的算法来优化事情,我们有很好的数据, 但我们没有很好的方法来明确我们要优化的是什么. 我们想要的是什么? 整个社会都是公平的? 每个工程师都认为有人会找到答案,所以他们不必担心. Maybe we should pay more attention to that at the societal level; at the governance level (what should be legal and not legal); at the engineering level (I want to build a product, 我怎样才能做出正确的决定?); and at the individual level (do I really want to spend my time watching cat videos? 也许我该做点别的事?).

乔恩: 这听起来像是人文学科的范围,谈论价值观等等. 人文学科如何与这些项目联系起来,并决定人工智能系统的一致性? 人文学科如何发挥更大的作用?

Chowdhury对齐问题是, 如果你建立了一个足够强大的人工智能系统, 我们能控制它吗? 在这个问题上花费了数亿美元. 我的看法, 如果我戴上人文学科的帽子, 我戴上了我的哲学帽, is that there are three questions to ask when addressing the alignment problem: What is competence? 什么是控制? 什么是意识?

How do we define competence when we have AI systems that can pass a bar exam or medical licensing? ChatGPT可以通过律师考试, 那么我们如何定义一个拥有法律执业执照的人的能力呢? 如果人工智能达到了我现在害怕它的能力水平,它是有意识的吗? Answering those questions will tell us about ourselves and tell us more about our values and how we’re trying to thrive with AI systems.

Montemayor: 我们如何在总体上协调我们的价值观,这对我们的尊严和自由意味着什么? 这是一种启蒙的说法, 但我的想法是, 这就是我们的尊严所在——我们的价值观以及我们如何保护它们.然而,我们最终还是使用了这些技术, 我们需要把它和更大的人文工程联系起来. 我们需要深入思考, not just about which goals we are trying to reach but why we should care more about some problems than others and what issues will be most central in the project of enhancing freedom and dignity with technologies and knowledge.

如果你回顾历史, 每一项新技术的最大应用都是军事炸药, 核武器. 恐怕我们还没有克服这一点,我们从当前的事件中知道这一点. 除非我们了解人文学科,否则所有这些事情都将重演, 人类状况, 社会学的驱动器, 还有历史上的先例.

乔恩: 十大电子游艺人性,人工智能教会了我们什么? 我们谈论人工智能向人类学习,但我们从人工智能身上学到了什么呢?

Norvig使用这些非常流行的大型语言模型, 每个人都认为这是一项了不起的技术. But to me it is not so much the peak learning networks that are amazing or the data centers that are amazing—the most amazing thing is we wrote all this down, 那里有很多东西! 我们创造语言的能力比我想象的要强大得多. 我们知道,我们比其他任何动物都更擅长语言, 但我认为没有人意识到有多少. 我们认为语言是一种传递机制, 你需要一个人在两端来理解它, 但是现在的电脑与这个词没有直接的联系, 那只能看语言, 能拿走这么多吗. 这告诉我,我们在发明语言方面做了一些了不起的事情.

我仍然对人类大脑的伟大感到惊讶. 我们仍然不了解自己. 未来的一个大问题是, 我们的大脑有什么特别之处是我们还无法复制的?

Chowdhury: All the things we give monetary value to—all the things we think of when we think of productivity or GDP—are the things that AI is very good at. 所有我们不重视的事情,人工智能都做不好. 它不能照顾一个婴儿. 它不能使哭泣的孩子平静下来. 它无法创造出我所听过的最美妙的歌曲. 这让我觉得是时候重新考虑我们认为有价值的东西了. Maybe what it is teaching us is that we may have a moment for recalibration…and can say maybe those days when we're not working aren’t wasting time. 相反,这才是做人的意义所在. 这就是提供高价值的含义.

观众提问你们有人想过政府应该制定哪些规定吗, or have you looked into what the EU is doing with its AI Act and thought that is something the US should follow?

Montemayor我想到的一件事是,有些规定是国际性的, 人工智能将走向国际化, 它将被每个人使用. 因此,我想知道出现的框架是否应该是一个国际框架.

Norvig除政府规定外,还有其他规定. 有自律(公司有培训和产品发布的规定). 软件工程师(很像土木工程师)有[潜在的]专业规则。. 可能会有第三方监管. 上一次有一种技术被开发者们认为是杀光了所有人, 是电. 美国保险商实验室 跳出来说, “我们要在你的烤面包机上贴个小贴纸,说它不会杀了你,“太棒了。, 因为消费者信任它, 这意味着这些品牌愿意接受认证. 保险商实验室有一个十大电子游艺人工智能的新项目.