(资料图片仅供参考)
今年以来,以ChatGPT为代表的人工智能通用大模型快速发展,随之而来的是对AI安全风险问题关注度的陡然提升。在近日召开的 2023 北京智源大会上,中外多位人工智能顶 尖专家热议AI安全伦理和风险防范问题。
OpenAI联合创始人山姆·阿尔特曼呼吁:为AI构筑“安全护栏”,使之更好地服务人类。北京智源人工智能研究院院长黄铁军表示,随着人工智能大模型出现了“涌现”能力,其不可预知性确实带来了巨大的挑战。被誉为“AI教父”的杰弗里·辛顿也在智源大会上再次表达了对人工智能技术风险的担忧。
随着AI应用越来越广泛,首当其冲的风险就是生成内容的真实性、准确性。OpenAI发布ChatGPT时指出,由于所使用的训练数据及训练方法的原因,ChatGPT有时会写出听起来很有道理但不正确或无意义的回答。当前,无论是GPT-4,还是其它通用大语言模型,均存在这样的“AI幻觉”。
对于医疗、自动驾驶等领域而言,这是一个非常严肃的安全问题。例如医疗行业的诊断、治疗等场景要求高精准度,不容有失,而通用大语言模型缺乏深入的医疗专业领域知识、经验及复杂推理过程,在面对医疗问题的准确性上存在天然缺陷。因此,医疗行业需要更高质量、足够专业的垂类模型,提供更精准回应,消除大模型幻觉。
但由于医疗行业的复杂性(医疗领域知识体系极其庞大),构建医疗垂直领域大语言模型的知识门槛也更高,不仅需要AI技术基础,还要具备足够的专业医疗知识储备。据悉,国内医疗AI头部企业医渡科技正在研发医疗垂直领域的大语言模型。
公开资料显示,医渡科技在医疗AI领域已经深耕多年,一直通过AI技术赋能监管机构、医院、药企、险企和患者,其自主研发的“医疗智能大脑”YiduCore拥有强大的数据处理能力,积累了大量的医学知识和洞见,内部人才团队80%以上都具备医学或人工智能背景,横跨技术和医学的交叉性人才近 100 名。
医渡科技具备研发垂类大模型的医疗数据、知识壁垒,以及NLP、深度学习等核心AI技术和交叉性人才储备,期待其给医疗AI的发展开启更多想象空间。
(推广)