科技公司借AI产品让自己避免泡沫化,而微软抢占先机后,还要担心对手后来居上,拼速度为当务之急,但无论多令人叹为观止的AI,都可能出现道德失误,现在微软不管了,万人裁员计划AI道德监督团队赫然名列其中。
AI工具会帮助人类做出更佳决策,但如果设计过程没有考虑道德因素,AI工具很可能用于恶意目的或误导。微软等大企业一直强调负责任的科技,AI道德与社会团队主要指导AI创新过程符合道德、负责任和可持续成果,但随着微软与OpenAI因ChatGPT与增强式搜索引擎大出风头,最近这团队却被裁掉,让人质疑微软将AI工具推向社会时,是否也违背当初的承诺。
外媒报道,微软保留人工智能办公室(ORA),这部门主要是为AI制定规则,但最近被裁道德与社会团队为确保微软AI原则体现至产品设计,负责确定微软产品集成OpenAI技术的风险程度。
道德和社会团队不是很大,去年10月重组后只剩7人,大部分员工都转到其他团队。外媒消息来源称,微软首席技术官和首席执行官Satya Nadella压力越来越大,要求尽快将最新OpenAI模型及下一代交给客户。被解雇员工认为,微软为了对手赶上前交付AI产品,导致不太关心长期、对社会负责等方面。
AI产品潜在的风险,微软可能不想再听到负面声音,因下定决心从Google夺走市场占有率。微软每从Google抢走1%市场占有率,就带来20亿美元年收入,这条钞票铺成的路上,潜在社会后果或法律警告都可能是绊脚石。
《纽约时报》最近也撰文,已在AI版搜索引擎Bing发现太多偏见与错误,如谈到政治,Bing表现左倾偏见,整体看,Bing的答案偏向好斗、居高临下、威胁、政治目标、毛骨悚然和说谎,足以大规模传播错误资讯和阴谋论,孤独者更可能受鼓励走上自我毁灭的道路,假消息也非常多。
原因之一就是传播速度。微软首席执行官Satya Nadella以疯狂形容发布聊天机器人的速度,可知现在微软战略方针很明确。报道认为,微软向169国超过100万用户推送Bing很鲁莽,显示赚钱已超越社会责任之上。
竞争激烈的市场,即使心存善念的公司也不得不向现实低头。AI全球咨询公司Fractal数据科学家兼首席顾问Sray Agarwal也认为,世界仍处于合乎道德使用AI的最初阶段,现在离负责任的AI还差得很远。如微软等领头羊企业,更应坚持原则而不是利润,纽约时报更对微软喊话:“现在比任何时候都需要负责任的AI,历史正在看着你。”
(首图来源:Image by Freepik)