然或紧张,只有对江倾近乎盲目的信赖。
她微微仰着头,看着江倾的侧脸,眼神亮得惊人,仿佛确信他一定能给出最完美的答案,化解所有难题。
江倾面对众人的目光,依旧是那副从容不迫的样子。
他安抚地拍了拍田熹薇的手背,松开她走向前几步,迎着诸多视线快速组织了下语言。
旋即,声音不紧不慢地响起。
“李教授这个问题非常关键,点中了AI发展的命门。Make Safe AI而非仅仅是Make AI Safe,这确实是未来必须走的路,也是最大的挑战。”
他顿了顿,用了一个通俗的比喻。
“这就像我们盖房子。Make AI Safe是在房子盖好之后,发现哪里漏风就堵一堵,哪里结构不稳就加根柱子,是事后的补救。而Make Safe AI,要求我们在一开始打地基、设计蓝图的时候,就把抗震、防火、防洪这些安全标准,作为核心的设计准则,融入到每一根钢筋、每一块砖瓦里。房子盖好了,安全属性是与生俱来的,不是后期贴上去的。”
李明哲教授眼睛一亮,连连点头。
“这个比喻很形象!正是这个意思!”
江倾冲他笑着点点头,继续回答。
“要实现这种根本性的转变,我认为核心挑战和可能的路径主要在几个层面。”
他伸出手指,条理分明地阐述。
“第一,数学与理论基础的突破。我们现有的AI,尤其是深度学习,其运作机制很大程度上还是个黑箱。我们需要发展新的数学工具和理论框架,能够严格地定义和验证AI系统的安全性、鲁棒性和可预测性。比如,如何用数学证明一个神经网络在遭遇从未见过的输入时,不会产生灾难性的错误输出?这需要理论根基的革新。”
朱龙深以为然地点头。
“没错,理论是地基。没有坚实的理论基础,上层建筑的安全无从谈起。”
江倾微笑颔首,随即继续开口。
“第二,安全优先的架构设计。这要求我们颠覆一些现有的设计范式。”
他举例说明。
“比如,传统的AI训练目标往往是单一的性能最大化。我们需要将安全作为一个同等重要,甚至有时需要优先考虑的核心优化目标,融入到训练算法本身。再比如,设计内置的安全阀机制,当AI检测到自身行为可能偏离预设的安全边界时,能自动触发限制或停止运行,而不是像现在这样,有时会一条道走到黑。”
&n