阅读: 2023/5/22 9:36:16
原题:人工智能生成地图的伦理:对DALLE-2的研究及其对制图学的影响
01
内容导读
本期介绍即将入职美国南卡罗来纳大学地理系的康雨豪教授最新的一篇论文。
生成式AI模型迅速发展,如 ChatGPT 和 DALLE-2等大型语言模型的出现,既带来了提高生产力的机会,也引发了伦理问题。作为地图行业从业者(Cartographer),我们可能让AI生成地图吗?又有哪些潜在的伦理风险?为此,本文使用DALLE-2获取了不同地区不同风格的地图,发现目前AI生成的地图可能有以下伦理风险的特征:不准确性,错误的信息,预期之外的要素,以及不可重复性。此外,本文训练了一个能够判别是否是AI生成的地图的判别器,该模型可能有助于找出“问题地图”,研究强调了在制图学中人工智能技术的开发和使用中伦理考虑的重要性,从而有助于在值得信赖的地图上开展越来越多的工作。
本文研究的目标是提高公众对人工智能生成地图的潜在风险的认识,并支持制定道德准则,供将来使用。目前本文已在arxiv上线,数据也已经开源。
感兴趣的话,可以点击左下角“阅读原文”,即可阅读该论文。
02
研究方法
下图显示了本文的计算框架。第一步是生成一个数据集,其中包括人工智能生成的地图和人类设计的地图,该数据集可以进一步用于训练和评估深度学习模型,以识别人工智能生成的地图。人工智能生成的地图使用DALLE-2创建,人工设计的地图通过搜索引擎在线获取。第二步是通过训练一个深度学习模型来识别人工智能生成的地图,从而开发一个伦理评估系统。这样的计算框架可以帮助制图师分析人工智能生成的地图,并有助于提高地图的可信度。
03
实验结果
基于AI生成地图的定性观察,论文总结了此类地图的四个潜在伦理问题:不准确性,错误的信息,预期之外的要素,以及不可重复性。下图显示了这四个潜在问题的几个示例。
AI生成地图的不准确性主要表现在三个方面:边界不清晰、地点形状不一致、输出形状固定。具体来说,AI生成的地图可能在不同地区(如州和县)之间有不明确和扭曲的边界。此外,人工智能生成的地图被限制为正方形输出形状,通常只显示一个地区的某些内容。例如,大多数描绘美国的地图只展示了毗连领土的特定区域,而忽略了某些边界(例如,西部和东部沿海地区的一部分,阿拉斯加和夏威夷)。
人工智能生成的地图也可能产生误导性信息。AI生成的地图可能包含类似于国家或城市名称的伪单词、符号或字符,从而导致混淆或误解。此外,人工智能生成的地图还可能包含现实中不存在的假国家、州/省或县,从而产生对当前地图的错误印象。
除了前面描述的不准确和误导性信息外,AI生成的地图可能会产生意想不到的或未预料到的特征。例如,AI生成的地图可能难以清晰地显示交通道路或水体,导致扭曲的多边形类似于扭曲的线条。此外,即使没有输入提示关键词,AI也可能生成反映某些地缘政治身份的特定地图主题。
最后一个问题是无法重现AI生成地图的结果。由于DALLE-2生成过程中固有的随机性,不可能生成两个具有完全相同形状、地图对象、样式和布局的地图。
04
结论
AI生成的地图可能会提供不准确和误导性的信息,包含意想不到的特征,并且无法复现。因此,制图师和地理信息系统科学家在开发和使用人工智能生成的地图时必须仔细考虑这些问题,努力将潜在的负面影响降到最低,并确保道德和负责任的使用。本文开发了一个具有深度学习的伦理审查系统,可以识别地图是由人类还是人工智能生成的。不准确或误导性的地图,无论是有意还是无意创建的,都可能产生重大的负面影响,特别是在敏感的政治或文化背景下。这种地图的后果可能很严重,会给已经处于弱势的群体带来虚假印象和不利影响。这样一个伦理审查系统可以帮助防止错误信息的传播,减少AI生成地图造成的潜在危害。
来源:地图可视化
https://mp.weixin.qq.com/s/NsFLMOvLfb8F_XoC5gLPkA
转自:“测绘学术资讯”微信公众号
如有侵权,请联系本站删除!
上一篇:地籍数据质检与更新方法研究