正是文崇。
文崇调试好麦克风,声音透过音响传遍教室:“今天我们从三个案例切入,聊聊ai决策的伦理边界……”
他的语速平缓,逻辑清晰,讲到关键处会举起左手比划。
中途提问环节,文崇目光扫过教室,最终落在最后一排:“那位穿白衬衫的女同学,你对算法偏见有什么看法?”
所有目光齐刷刷投向温穗。
她站起身,虽然挺惊讶,声音却很稳:“算法偏见的本质是数据偏见。训练数据里藏着人类社会的隐性歧视,ai不过是将这种歧视量化成代码。解决的关键不在于优化算法,而在于重构数据采集的逻辑。”
文崇眼睛豁然亮起,没想到会得到这样的答案。
他微微颔首:“说得很好。那你觉得,当ai的决策与人类伦理冲突时,该以谁为准?”
“以具体场景为准。”温穗从容迎上他暗含鼓励和期待的眼神,“医疗领域以生命优先,司法领域以程序正义优先,没有放之四海而皆准的准则。”
文崇沉默了两秒,突然笑了:“有见地。你叫什么名字?”
“温穗。”
“温穗。”
他轻声重复这个名字,最终只是点点头,“请坐。”
温穗坐下时,悄悄松开紧握的手。
贺霜担忧地看着她:“你没事吧?脸色好差。”
“没事。”
她摇摇头,视线忍不住再次投向讲台。
文崇正在讲解某个医疗ai的案例。
讲到情感交互模块,他忽然开口:“真正的共情,不是模拟人类的表情,而是理解表情背后的情绪,根据人类的情绪做出相对的反应。”
有学生举手发问:“文老师,既然ai这么智能,那未来人类会不会被ai取代?”
来我办公室一趟
文崇放下手中的演示器,目光扫过教室里略显紧张的年轻面孔,嘴角扬起一抹温和弧度。
“这个问题,我在几年前第一次教人工智能伦理课时就被问过。”他走到讲台边缘,比划着说:“我们先做个假设。”
“如果ai能精准识别你皱眉时是因为解不出方程,还是想起了被妈妈批评的委屈——它能理解委屈里藏着对被爱的渴望吗?”
前排有学生小声嘀咕:“现在的情感模型不是能分析语境吗?”
“是能分析。”文崇点头,从口袋里掏出颗水果糖放在讲台上。
“就像它知道这颗糖是甜的,却永远不会明白,小时候攥着过年的糖舍不得吃,最后化在掌心的那种怅然。ai可以模拟安慰的语气,却不会在你哭的时候,下意识把肩膀往你这边靠一靠。”
“那是人类在百万年群居生活里,刻进基因的温暖本能。”
他顿了顿,指向窗外掠过的飞鸟:“你们看,计算器比人类算得快,却没让数学家失业。起重机比人类力气大,建筑师反而能设计出更天马行空的建筑。”