您现在的位置:首页 > 游戏资讯 > 游戏新闻

2022年9月美国规划协会发布一份摘选规划AI白皮书

来源:好完美 浏览次数: 发布时间:2022-12-07 12:19:54

2022年9月,美国规划协会(APA)发布规划AI白皮书,不定期嘉宾翻译原文。白皮书的论点有点冗长,所以本文筛选出我认为有启发性的观点和表述来分享。很多关于趋势的观点和判断看似司空见惯,甚至前后矛盾,但也不乏一些有趣的论述。对于原文中较长且难以理解的内容,译者根据自己的理解和感悟进行了注释。(见【译者注】)

原文章内容有点长,分四部分分享。前三部分是白皮书内容的分享和解读(本文为第二部分),最后一部分内容将结合现有成熟的AI工具、产品和项目——小库科技、ERIS Arcgis Urban 、Urban Brain等,进行测评分析,对中美两国的发展进行比较和个人思考。本文节选自白皮书第三、四章。由于个人水平有限,翻译存在一些错误,请批评指正。目录 1 引言 2 意义的建构——人工智能与规划 2.1 什么是计划,计划员做什么?2.2 什么是人工智能,人工智能能做什么?2.3 人工智能与规划之间的相似性和协同作用 2.4 人工智能在规划中的潜在用途和影响 3. 机遇和挑战 3.1 技术部门和规划 3.2 规划学术界和实践 4 人工智能的公平和包容以及意识 道德要求 4.1 人工智能的规划目标和目的 4.2价值观和道德决策 4.3 包容 4.4 透明度 4.5 历史包袱 4.6 多样性 4.7 谁负责?5. 规划者的角色以及如何为 AI 做好准备 5.1 规划者作为基于 AI 工具开发的贡献者 5.2 规划者作为知情消费者 5.3 技能提升和持续学习 6. 用 AI 规划未来 7. 参考资料7.

3 机遇与挑战

用于规划的人工智能可能有助于识别痛点和相关机会。这需要与任何创新相同的任务:开发共享词汇表、学习新技能、了解新工具的好处、定期重新校准期望以及确定适当的绩效指标、分析框架和评估技术。规划人员需要弥合规划和技术部门截然不同的文化,规划学者将在这一领域找到新的研究机会。

【译者注:不同的规划应用场景有不同的需求。从研究、规划、管理、评估到每一个环节,指标、框架、技术都要重新构建,就像现阶段的“城墙杯”竞赛一样。当涉及到具体的分析场景时,需要数据和模型进行分析,这将成为新的业务增长点,形成可复制、可调整的空间分析产品和算法模型】理解人工智能是基于长期使用对规划者的预测和分类统计方法很有帮助,例如回归模型、聚类分析和主成分分析。使 AI 与众不同的扩展是预测和分类用于支持基于规则的自动化决策。

[译者注:自动化决策和基于规则的决策是理想状态,就像完全不需要人为控制的自动驾驶阶段,需要强大的数据能力和场景判断,规划周期相对long,类似于 交通等实时数据基本不可能有,规划产生的数据基本都是后验类型。个人觉得很难先验预测和自动决策。当然这也和现阶段的规划过程有关,因为人脑的数据喂养比较简单,但是如果是城市大脑,以整个系统的数据分析能力,是可以做出系统判断,然后自动化决策]

了解和管理 AI 的局限性是规划人员面临的另一个重要挑战。…重要的是要知道人工智能是否在代表性数据上进行过训练,算法是否经过调整以反映应用程序的上下文和最重要的特征,以及最终算法中可能存在的偏差。需要实践才能精通结果的准确性和意义,并识别工具不适合的情况。

[译者注:目前的AI还处于起步阶段,积累的数据量不够,很难得到算法的反馈,先验概率决策和分析积累,很难得到验证和反馈,其次需要考虑普遍性和特异性的矛盾。例如,设计方案应相对刚性,以满足各种设计规范,而规划决策和管理要求最低限度的底线思维和外部性,相对灵活,具有更大的自由裁量权。这些当地的文化背景、制度特征和规范要求可能是人工智能难以理解和形成决策的。有了这种普遍性下的特殊性,

有时我们选择方便的指标而不是合适的指标。通常,我们在公共决策制定中部署的指标可以通过最简单、成本最低的访问方式构建。

[译者注:数据的可用性、准确性和规模可能会影响最终决策的分析结果。在起步阶段,可能还需要依靠小数据进行辅助判断,还达不到大数据的水平。场景】

完美国际自动做任务时什么辅助

有时,我们不会有意识地选择一个分析框架来指导我们的决策,我们不会问谁会受益。在参考任何分析或数据之前,总会有一个问题需要回答。这个问题的定义将对数据的呈现、叙述的构建以及最终规划决策的结果产生连锁反应。

[译者注:目前很多规划中的分析和决策过程还是靠大脑来决定,没有分析框架和算法逻辑,比如工业规划、商业设施、各种用地的选址布局等。明确问题的定义非常重要,它决定了最终的概念和数据指标,并在空间上带来连锁反应和蝴蝶效应]

3.1 技术领域和规划 然而,通过人工智能实现自动化是有风险的,因为当我们让人工智能在不经我们思考的情况下运行时,我们可能会错误地应用方法或导致意想不到的后果。因此,定期评估我们在自动化方面的尝试及其性能是很有价值的。

【译者注:不难理解。看看现在的自动驾驶事故就知道了。任何情况下都会存在风险。人工决策靠的是权力,或许在不知不觉中隐藏着更大的风险。但我们不能因噎废食,自动化决策还是有价值的,只是技术还不成熟,需要人工干预和规避】

规划人员将成为批判性的、有眼光的技术用户,并确保所寻求的效率得到社区和更广泛社会的重视,从而更好地为社区服务。

[译者注:技术用户和反馈越来越像社区中的空间产品经理。他们还处于空间决策代理阶段,还没有进化到产品经理阶段】

他们(计划者)需要了解输出是如何产生的,并且能够将输入的内容与输出的内容联系起来。规划者应该通过对人工智能及其影响采取主动而非被动的方法来引领游戏。

营利活动与公共利益之间存在典型的紧张关系。私人参与者将使用人工智能工具来推进他们的目标,而规划者将需要做出适当的回应。当规划者借用较大的私营部门开发的工具时,它们的适用性可能并不完美,也可能无法满足公开性和问责制的要求。与公共部门的规划人员相比,技术部门的职业经理人和学者拥有更多的创新和测试想法的自由。特别是,地方政府的规划从业者没有“失败”的机会,这表明科技部门应该承担更多的试验责任,许多人将其归因于 Maxwell (2000) 的格言“早期失败,经常失败”。【译者注:公共部门规划者的责任归根结底还是由技术来承担,这一点在第一期中也有提到。比起要求人类承认错误、责备算法错误,前者要困难得多,但这种公共利益非常重要。这很难界定,有时是多数人的利益,但又不可避免地要保证其公平正义。可能存在多数人的暴政,以及算法下空间规划的失败。谁来承担最终责任?它的责任也很难界定。政府部门的规划人员没有失败的机会。这是一个好主意,但人工智能不就是从失败中学习吗?这里的实验是如何进行的?通过评估一系列社会实验及其策划不同方案所带来的外部性,我们可以权衡利弊,古语有云:两害相权取其轻;两害相权取其轻。成为决策树模型】

有必要对人工智能工具进行比较评估,以评估它们的相对优势和劣势。这是学者和研究人员的作用,因为他们经常需要与从业者一起工作。[译者注:对于上述算法的黑盒,需要人工评估和反馈结果,不断修正结果的正确性,使算法不断进化和学习,以满足自主决策的需要-制作与分析]

3.2 规划学术与实践

完美国际自动做任务时什么辅助

规划学术界在评估 AI 工具方面可以发挥的作用是关键使用最先进的技术、规划应用程序以及培训学生和中期从业者的适用性。此外,人工智能为规划研究议程提出了新问题。

与其他商业和政府部门一样,人工智能在规划方面的潜力在 20 世纪 50 年代末和 60 年代初得到认可,但由于缺乏城市地点和流程的数据,人工智能的进一步发展受到阻碍。限制。随着传感器的实施,收集有关移动互联网模式、土地使用变化、房地产交易、能源使用和其他信息的数据,这种情况正在迅速改变(参见 Thakuriah、Tilahun 和 Zellner,2017 年)

尽管城市规划学者对 AI 相关主题的研究在过去几年中一直在增加,但有证据表明,这些结果进入专业规划师手中的速度很慢(Batty,2018 年;Sanchez 等人,2022 年) . 一些学者建议规划者缩短规划时间框架,以更好地与控制论和城市运维研究的进展相重叠(Batty,2021)。其他学者认为,规划者应该利用数据的普遍存在和计算技术的进步来增强信息资源的再分配正义和边缘化社区决策的程序正义(Goodspeed,2015 年;Boeing 等人,2021 年)。

随着数据可用性、通信能力和城市人工智能研究的不断提高,城市规划将在规划制定技术的使用方面发生重大变化。学术文献表明,人工智能在土地使用、分区和许可、环境规划和交通等不同领域的规划中有广泛的应用前景。这些例子中的许多代表了规划操作中的“古怪”问题,没有商定规则、逻辑或可能结果的有限集合的问题。通过对大量监督数据进行分类,AI 很容易应用于“驯服”问题,例如 X 射线的医学诊断,而诊断等“棘手”问题则不是那么容易。【译者注:英文是wicked problem,

“耐释义”问题是一个难以或不可能解决的问题,因为它是不完整的、矛盾的、不断变化的,而且通常难以识别或定义。在英语中使用“wicked”指的是决心反抗。对抗性问题的另一个定义是“由于其复杂的社会影响而没有任何可识别的停止点的问题”。并且由于复杂的相互依赖关系,试图解决一个对抗性问题的动作或方法可能会导致其他问题出现。

“应用场景”网络的信息污染是一个“恶问题”。这种问题不能用常规的方式解决,试图解决往往适得其反。例如,Facebook 添加了一项功能,事实核查人员将虚假信息标记为“有争议”。但是,如果用户已经倾向于相信这些信息,看到这个标签只会让他们更加相信,而不会改变主意。我们还需要更好的解决方案。

“棘手问题”是由于难以识别的不完整、矛盾和不断变化的需求以及复杂的相互依赖关系而难以或不可能解决的问题。1967 年,Charles West Churchman 在《管理科学》杂志上最初使用现代意义上的“棘手问题”一词来回应 Horst Rittel,后者曾使用过“棘手问题”一词。Rittel 和 Melvin M. Webber 在他们 1973 年的论文中正式描述了棘手问题的概念,他们将“棘手”与其相关概念“驯服”以及数学、国际象棋或智力游戏中的“驯服”进行了比较。社会政策问题的解决方案”,他们指出:“由于这些问题的特殊性,用科学依据来寻找解决社会政策问题的办法是注定要失败的……政策问题无法描述清楚。而且,在多元社会中,不存在有争议的公共物品、权利的客观定义;解决社会问题的政策无法得到有意义的纠正或错误,而谈论这些问题的‘最佳解决方案’并没有实际的解决方案。” 棘手问题的典型例子是经济、环境和政治。当解决一个问题需要改变大量人类个体的思维和行为时,那么这个问题可能就是一个难题,比如现在的Covid疫情。. . 解决社会问题的政策无法得到有意义的纠正或错误,而谈论这些问题的‘最佳解决方案’并没有实际的解决方案。” 棘手问题的典型例子是经济、环境和政治。当解决一个问题需要改变大量人类个体的思维和行为时,那么这个问题可能就是一个难题,比如现在的Covid疫情。. . 解决社会问题的政策无法得到有意义的纠正或错误,而谈论这些问题的‘最佳解决方案’并没有实际的解决方案。” 棘手问题的典型例子是经济、环境和政治。当解决一个问题需要改变大量人类个体的思维和行为时,那么这个问题可能就是一个难题,比如现在的Covid疫情。. .

参考:

棘手的问题;

完美国际自动做任务时什么辅助

与其他更常规和频繁使用的方​​法相比,人工智能的作用更大,其他前瞻性应用很少被使用,可能不会带来显着的改进或成本节约。因此,当城市规划者和规划组织考虑适​​当的应用程序来改进他们的流程时,明智的做法是考虑现阶段规划实践的哪些方面可以从人工智能中受益,并且不太可能产生意想不到的后果。将人工智能应用于城市规划中“难以解决”的问题仍需要取得重大进展,学术研究可以提供帮助。这包括重要的因素,例如谁参与了问题的定义、AI 工具的评估、数据的代表性以及涉及的时间范围。这意味着首先强调规划者的需求,其次是技术的属性,这种方法通过技术的发展不同于当前的实践,而很少考虑研究过程中的当前实践。4 公平与包容,以及人工智能的伦理需求

为确保在规划中使用人工智能产生公平和可持续的结果,我们必须首先重新评估当前的规划流程,了解它们的缺点,并利用吸取的教训来指导新的或经过调整的流程和规划实践的发展。正如本白皮书所述,了解规划的人为因素并确定机器可以做什么和不应该做什么非常重要。规划专业不断努力纠正过去的错误并改进规划实践,以在未来创造公平的社区。公平的规划实践需要支持基于 AI 的规划工具。规划者可以首先确定人工智能在公平、多样性和包容性方面面临的挑战,以及在与人工智能合作时需要解决的剩余缺点。此外完美国际自动做任务时什么辅助,规划者必须了解人工智能在公平、多样性和包容性方面的缺点,这些问题类似于规划者试图在自己的专业范围内解决的问题。4.1 人工智能的规划目标和目的

“AI in Planning”前瞻社区首先提出了一个问题:规划的目的是什么?一般来说,规划者同意我们为共同利益制定计划的努力。规划者试图解决当前的问题,建立共识,并平衡不同利益相关者和不同利益之间的权衡。根据 AICP 道德与职业行为准则,“规划过程必须不断追求并忠实地为公众利益服务”。

但是,在尝试制定算法时,“为公共利益计划”或“为公共利益服务”意味着什么?这是否意味着要为最大多数人的最大利益进行规划?如果是这样,它将默认排除少数民族和边缘化群体。这是否意味着“群体的观点”比个人的观点更重要?如果是,公平的概念是如何体现的?或者,是否有更好的算法假设通过解决社区中最弱势群体的需求,每个人都能得到服务?虽然规划者旨在为共同利益进行规划,但一些规划实践会无意或有意地对某些社区造成伤害。

开发人工智能系统的主要目的是相似的:解决某些问题,尤其是人类无法自行解决的问题。人工智能本身并不有害,也无意如此。它的目的取决于它的用户和他们的意图。机器不会自己做决定,没有意见,也没有经验。人工智能的程序员——开发机器正在使用的算法并决定将哪些数据输入机器的人——对它做出的决定以及这些决定的后果负责。然而,与为公共利益进行规划的规划者可以参考道德准则不同,人工智能(及其程序员)没有任何道德框架,至少现在还没有。

4.2价值观与道德判断

到目前为止,人工智能还没有统一的规定,也没有开发或使用人工智能的通用道德规范。虽然多个实体,包括经济合作与发展组织 (OECD) 和各国政府等全球组织,以及私营科技公司,一直在为道德人工智能开发初步概念,但没有一个比这更具法律约束力或可执行性。

诸如“什么是道德决定?”之类的问题。或“什么是道德算法?” 超出了 AI 开发人员或规划人员的责任。例如,如果自动驾驶汽车中的算法必须决定是碾过人还是撞到树,那么该决定可能比决定碾过 70 岁的女人还是撞到 10 岁的孩子更重要男生。简单的。根据文化价值观和信仰,每个人的答案可能不同。人工智能的发展迫使我们更好地理解和定义人类的价值观和推理。

由于规划人员希望将规划任务转化为算法,或使用基于 AI 的工具来协助任务,他们应该将 AI 中的道德对话与现有的规划道德联系起来。同样,AICP 道德规范也需要更新和调整,以反映人工智能应用无处不在的未来,无论规划者是否参与对话。

4.3 包容性

完美国际自动做任务时什么辅助

在尝试为共同利益制定计划时,最大的挑战之一是确保听到所有的声音,并将每个人都包括在内。然而,诸如“最响亮的声音”(我们如何发现从属的叙述并鼓励边缘化的声音大声说出来并被听到?)、社区参与的预算限制(哪些渠道、工具、方法和地点可用于外展、参与)等主要问题和参与?),以及阻力最小的路径(无论谁最容易参与,谁将参与以及什么数据最容易收集,都将被收集)都强调了包容性的必要性。包括所有社区成员的最佳方式是什么?公民包容是什么样的,所有居民都能找到满足他们期望的互动方式?

就像在规划中一样,当使用人工智能时(例如,根据大数据集做出决策),那些不在数据中的人可能会被排除在外。不完整的数据集和不代表社区的数据会导致不平等。此外,算法偏差的风险可能会加剧这些不平等。算法反映了其创造者的偏见,不完整的数据集可能反映了社会不平等。当原始的政治权力似乎凌驾于个人参与权之上时,人工智能不会缓解问题,反而可能加剧问题。

4.4 透明度

规划者面临的另一个挑战是由于缺乏透明度,人们对公共部门的信任度下降。虽然规划人员努力纠正过去的错误行为,但规划仍然是一个专家驱动的职业,规划人员的行话造成语言障碍、缺乏理解以及对自上而下决策的偏见。如何更公平地制定计划并为共同创造提供机会?

某些技术可以促进更具包容性的访问和每个人参与的机会。但是,当未知数据进入黑匣子时,未知算法会产生输出,这种缺乏透明度会加剧不信任,以至于社区和规划者都不信任该技术。在规划中,透明度的挑战是让规划过程本身更容易为他人所理解,而这正是规划者可以做的。但就 AI 而言,基于 AI 的工具的用户通常不知道黑匣子里面有什么。在规划中使用人工智能时面临双重挑战。首先,规划人员(作为 AI 的用户)需要了解数据从何而来,数据中包括哪些人,黑匣子里有什么,黑匣子里没有什么。其次,规划者需要能够将这些知识传达给他们的社区成员,

人工智能素养,或对基本人工智能概念的理解,将是规划者能够以公平的方式使用人工智能并将其目的正确传达给社区的关键。…通过优先考虑规划过程中的透明度,规划者可以与社区建立信任。这种计划能力变得越来越重要,尤其是当计划者处理过去错误造成的不信任后果时。最后,每个人都应该成为 AI 系统的关键用户,了解自己的权利和责任,以及如何在 AI 驱动的世界中行使这些权利和责任。

4.5 历史的包袱

在努力消除不平等和应对相关挑战时,我们正在使用与创造不平等相同的过程、方式和方法。这可能包括提出错误的问题,使用有偏见的假设或目标,缺乏监测和实施后评估,以及缺乏关于公平、多样性和包容性问题的规划教育。

与规划师一样,人工智能接受过去事件的训练,使用过去的数据(反映社会差异)来为当前和未来的决策提供信息。算法只是反映了它们的创造者现有的心态、偏见和价值观;算法不会质疑他们。数据反映了可能不公平、具有误导性和歧视性的历史实践和思维方式。

为了从过去的错误中吸取教训并适当地重新思考规划过程,后见之明是必要的;这可以为算法和工具的开发提供信息,以协助规划任务。分析和评估过去的规划决策及其后果至关重要。规划人员和人工智能开发人员需要了解历史对我们的思维方式和数据集有多重要,以及它如何对我们的工作产生负面影响,从而导致未来出现更多不平等现象的滚雪球效应。问不同的问题;使用新的思维方式、新的方法和流程以及不同的数据集;从有缺陷的、不公平的方法中吸取教训将是解决当今规划和人工智能开发问题的关键。

完美国际自动做任务时什么辅助

4.6 多样性

规划专业目前并未反映我们所服务社区的多样性。这种缺乏多样性导致缺乏多样化的观点。同样,在科技界,只有少数人的价值观和偏见反映在所使用的算法和数据中。为了公平地服务于不同的社区并理解不同的需求和价值观,服务提供商也需要反映这种多样性。仅来自不同角度的投入并不能解决不平等问题。然而,它可以帮助转变关于价值观和偏见的对话。

此外,如本白皮书所述,AI 中使用的数据和算法需要反映社区的多样性。然而,并不是每个人都连接到可以收集数据的设备。规划者的作用仍然是确保他们使用的数据反映社区的多样性,以创造包容和公平的结果。

4.7 谁负责?

如前所述,规划实践会造成伤害,在某些情况下是有意的,而在其他情况下则是无意的。规划者通过红线划定、排除性分区和其他过程故意造成不平等。然而,在尝试改进计划过程时,我们需要回答以下问题:什么在计划者的控制之下,什么不在?选举或任命的议会,开发商,政客和其他行为者的作用是什么?计划者的作用是什么?该过程中是否有故意排斥的部分,哪些是无意的,因此可能需要进行更深入的评估?谁应该负责?

“谁对 AI 创造的东西负责?” 最近在计算机视觉和模式识别会议上首次出现,AI 研究人员在会上预先发表了他们关于 AI 发展的最新发现。许多研究人员喜欢他们的学术自由,认为他们的首要任务是开发这些工具,而不是考虑潜在的用例和滥用的后果(Kaye,2022)。

考虑到在规划中使用 AI 并培训规划人员成为知情消费者的道德框架将有助于减轻规划在 AI 的开发和使用中面临的风险和挑战。虽然以上几点概述了规划和人工智能的缺点,但在尝试同时解决这些问题时,可能会找到解决当前问题的方法。

策划行业有提升空间,AI可以成为解决行业问题的机制;但如果不小心使用,人工智能也很容易加剧这些问题。在这一点上,在规划中使用基于人工智能的工具可以产生两种效果。

【译后感悟】

这部分内容涉及到很多关于技术应用的人文思考和哲学思考。目前,这方面的规划研究并不多。在大多数情况下,研究仍然热衷于创建算法黑匣子。似乎很多问题都可以通过算法来解决。但更多真正隐藏在背后的小群体的需求,可能真的会被算法忽略。比如规划要以人为本。这句话几乎被奉为灵丹妙药的概念和政治正确的口号,却往往没有深入思考哪些人才是真正的中心。当规划被人工智能技术强制进入公共利益的决策层面时完美国际自动做任务时什么辅助,群体代理的政治问题仍然存在——即 你代表哪个群体,你呼吁谁——这也是后增长时代西方规划和研究的重点,包括社会公平、空间正义、社区福祉、程序正义、多样性等,也是一些最关键的规划方面。这可能也是目前中国规划教育中所欠缺的,但这种问题似乎是一个很棘手的问题。

目前,策划行业仍然被技术至上、经验主义和精英主义所评判和支配。毕竟,话语权还是掌握在少数人手中。从专业的角度来说,这是无可厚非的。文章中的一句话一语道破——虽然策划人努力改正过去的错误,但策划人仍然是专家驱动的职业,策划人行话会造成语言障碍,缺乏理解,缺乏对自上而下的理解决策有偏见——但在现阶段,似乎没有更好的解决办法。另一个问题是,当算法逐渐接管人类进行空间决策时,我们的城市和社会形态将如何变化?人们在这个规划过程中还有主观能动性吗?以人为本的规划和人本主义还有价值吗?存在?这似乎也是一个值得深思的问题。当科技的车轮滚滚向前,成为不可阻挡的潮流,我们都身处其中,AI规划的未来将何去何从?答案随风飘扬。

推荐阅读