最近,OpenAI公司宣布了他们新一代的语言模型GPT-4,这一消息在AI圈引起了不小的轰动。如此强大的语言模型,让人们开始反思人工智能的强大与应用。
随着我们越来越依赖于机器学习模型,我们可能会逐步接受难以解释的事实:机器学习模型之所以有效,是因为它们比我们更擅长阅读世界。
每当一个用户因无法理解机器学习的工作原理而发出绝望呼声时,我们都能感受到这些模型确实有效。但是,还是不免会想问一句:为什么?
其实这样的经历我们并不算陌生,就在几年前,AlphaGO的惊天一战,证明了AI可以打败人类棋手、而且还“很会”的时候,当时那些世界顶级的棋手也跟我们发出了一样的呐喊:为什么?
他们也不懂DeepMind的“不按牌理出牌”看似毫无章法,但为什么最后会棋高一着?
反过来想,在机器学习的帮助下,我们或许能更好地认识这个世界,找到真正的本质。但我们也需要认识到机器学习模型的局限性,以便更加谨慎地应用它们,避免对社会和人类产生负面影响。
机器学习系统的不透明性引起了人们对它们的可信度和偏见倾向的严重担忧。但是它们确实能够起作用的事实,可能会让我们对世界是什么以及我们在其中扮演什么角色有了全新的理解。
机器学习,与传统程序设计有着完全不同的工作方式。
传统程序设计是我们基于固定的规则,去理解世界的集大成者。机器学习模型则懂得从样例中学习。它们能够跳出人类认知的模式,而总结出我们所无法理解或者应用的规律。
例如,人类的新陈代谢是一系列极其复杂的相互作用和相互依存的效应。于是,人们创建了一个能够预测人体系统对复杂因素反应的机器学习系统,称之为DeepMetab。它成为医生、研究人员、非专业人士和疑病症患者提出关于人体器官的问题、探索相关想法的地方。尽管我们无法理解它如何产生输出结果,DeepMetab仍然成为有关人体知识的最重要的来源。
机器学习模型的工作原理是放弃用可以被理解的规则来简化并解释复杂性,那么在“它有效!”的呼声中,我们可以感受到所有微小事物在它们的相互依存中彼此互动。而这些微小事物才是真正的本质,它们在和谐规律的宇宙音中发出嘎嘎声。我们技术的成功正在告诉我们,世界就是一个真正的黑盒子。
在现实生活中的机器学习应用中,可能的答案数量要数以亿计,需要考虑的资料量非常庞大,资料点之间的相关性非常复杂,甚至于我们人类通常无法理解。但确实有关联,只是需要超级计算机的容量以及运算,才能够看出端倪。
幸好,人类也正在进化中,看看围棋界经过了AlphaGO那一场“屠杀”之后,现在依然新手辈出,而且也发展出许多新技术。整体来说,其实是好事,AlphaGo颠覆了人类对围棋的传统观念,打破了人类在过去低估了棋局哪部分的重要性,并展示了一些创新和惊人的棋路。也推动了围棋的发展和进步,促使人类棋手提高自己的,并从AlphaGo的对局中学习和借鉴。
像是李世乭就表示,“AlphaGo是一个非常强大和创新的对手,并感谢AlphaGo给他带来的挑战和启发”,也说自己会继续努力提高自己的水平。柯洁也说“AlphaGo是一个神奇和不可思议的存在,并表示自己在与AlphaGo的对弈中感受到了围棋的无限可能性,也体会到了自己的不足之处,并说自己会努力追赶AlphaGo的脚步”。
但在此同时,我们也需要认识到机器学习模型的局限性,以避免负面影响。
机器学习模型的输出结果往往需要人类的解释和解读。这需要我们了解模型的工作原理和资料,以及如何解释输出结果。如果我们无法解释机器学习模型的输出结果,那么我们就无法信任它们。
另外,机器学习模型的不透明性使得它们很可能会产生明显的偏见,因为它们以前的经验是从历史资料中学习得来的。如果历史资料中存在偏见,那么机器学习模型将自动地学习并重现这些偏见。
例如,在面试候选人时使用机器学习模型,如果历史资料中存在性别或种族等偏见,那么模型可能会倾向于选择特定的候选人。
因此,我们需要更加谨慎地使用和评估机器学习模型。我们需要确保模型的训练资料没有偏见,并且模型本身也没有偏见。我们需要了解模型的工作原理,以便解释和解读输出结果。此外,我们也需要考虑机器学习模型的影响,以确保它们不会对社会和人类产生负面影响。
总之,机器学习的强大和不透明性让我们对其应用产生了新的思考。但我们也需要更加谨慎地使用和评估机器学习模型,以便充分利用它们的优势,并避免对社会和人类产生负面影响。