科技与人性的交织:李飞飞如何让 AI 更懂人心

科技与人性的交织:李飞飞如何让 AI 更懂人心

在这个由 AI 技术快引领科技发展的时代,史丹佛大学人本人工智慧研究中心(Human-Centered Artificial Intelligence, HAI)院长李飞飞,提倡以人为中心的 AI 发展方向,她强调了在 AI 创新中融入人性的重要性。李飞飞的见解反映了当前 AI 领域的一个关键趋势:在技术发展的过程中,AI 应该与人类的需求和价值观保持一致,而不仅仅是追求技术创新。李飞飞的观点,将如何影响着 AI 领域的未来走向?

AI 将成为打击假讯息的重要工具

李飞飞近期在她的访谈中强调了,以AI对抗错误资讯的潜力。这个观点对于我们当前的数位环境中尤其重要,因为假资讯可以迅速地在社群媒体和其他线上平台扩散,造成重大的社会影响。

李飞飞所领导开发的ImageNet,是一个大规模的资料集,包含了数百万张影像,旨在为训练和测试机器学习模型提供全面的资源,特别是在影像辨认的领域。在多样化的资料库上训练的AI模型可以分析和解读视觉内容,这对于验证网络上分享的影像和影片的真实性至关重要。

在网络安全领域,这种能力可以被利用来侦测被变造的图像或影片,这是传播假资讯或数位宣传的常见手段。特别是在像以色列─哈马斯冲突这样的敏感地缘政Z情势中,AI的角色变得越来越重要。AI可以帮助分析在社群媒体上流传的影像和影片,辨别出潜在的错误资讯或经过篡改的内容。借由来源的交叉比对和核实原始资料,AI系统可以标记可能具有误导性或错误的内容。

我们也可推断一个情境,透过自动化的事实查核,AI可以协助人类查核人员快速收集相关资讯,与验证的资料来源交叉比对分析,并标注出需要进一步人工调查的区域。AI与人类专家的协同作用可以提高事实查核操作的准确性和速度,使其更能够大规模地处理错误资讯。因此,AI对于事实查核流程也能有所贡献。

但是就现今对抗错误资讯的一大挑战在于,如何确保AI自身不具偏见,而避免在其辨别假讯息的过程中,因偏见而无意中去压抑不同观点或意见的真实讯息;另一个挑战则在于假讯息的发布与传播策略不断改变,AI系统必须持续适应和持续学习以确保能跟上假讯息的演变速度。

使用类似 ChatGPT 的技术来帮助医生编写医疗摘要

在当今迅速发展的AI领域中,李飞飞谈到了一个重要的未来趋势:利用AI技术增强人类的医疗保健能力。特别值得关注的是,她提出了使用类似ChatGPT的技术来协助医生撰写医疗摘要,这不仅展示了AI在医疗领域的应用潜力,也凸显了AI在改善医疗服务中的重要性。

医疗专业人员经常面临巨大的工作压力,尤其是在病患纪录和资料管理方面。医疗人员经常因大量文书工作而分散了对病患的关注。使用类似ChatGPT的AI技术可以帮助医生撰写医疗摘要和病历,使医护人员能够将更多的时间和精力集中于直接的病患护理上。这不仅提高了工作效率,还可能改善病患护理的品质。

除了撰写医疗摘要外,从李飞飞博士提出使用ChatGPT类型的模型这个角度,也相当程度反映了AI技术在医疗领域中多种应用的潜力。包括数据整合和处理、自然语言处理能力,以及支援临床决策等方面。

一个具体的应用案例可能是使用一个AI系统,来协助医生进行病患状况的评估。该系统可以通过分析病患的病历纪录、检测结果和实验室的检体分析报告来自动生成一份综合的健康报告。同时,该系统还可以利用最新的医学研究,为特定病患的状况提供客制化的治疗建议。

这种AI驱动的医疗辅助工具不仅可以提高诊断的准确性,还能帮助医生更好地理解和管理病患的整体健康状况。该系统能够从病患的全面医疗纪录中撷取关键资讯,生成精确的病历摘要。这不仅节省了医疗人员的记录时间,还能提供更全面和一致的病患资讯给医疗团队。此外,这样的系统也可以被训练来侦测特定疾病的早期迹象,从而在临床诊断过程中提供关键的决策支援。

以人为本设计的 AI:挑战与机遇

在人为本为中心的AI设计,李飞飞的观点,对应了当前AI领域中的一大挑战:如何在迅速发展的技术能力和潜在的伦理风险之间找到合适的平衡点。特别是在生成式AI(例如ChatGPT、Bing AI、DALL-E等)的快速进展中,这些系统所展现的能力惊人,但同时也引发了关于数据滥用与偏见、隐私、以及着作权等问题的讨论。因此,将人性融入AI设计不仅是伦理上的需要,也是技术发展的关键要素。

  • AI pioneer Fei-Fei Li: ‘I’m more concerned about the risks that are here and now’
  • Trailblazing computer scientist Fei-Fei Li on human-centered AI

(首图来源:Fei-Fei Li)

   特别声明    本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。