超广角大光圈定焦镜Sony FE 14mm F1.8 GM上市

Sony Taiwan在台发布G-Master系列最新大光圈全画幅定焦镜头FE 14mm F1.8 GM(SEL14F18GM),即日起正式在台上市。这颗镜头具备优异分辨率、快速安静且精准的自动对焦表现,轻巧镜身设计、兼具大光圈及超广角焦段,更让图片创作者可以新的视角捕捉风景、建筑物、星空及室内空间等多样主题的图片。

全新FE 14mm F1.8GM镜头相当轻巧,重量仅约460g、镜身大小只有83mm(直径)x99.8mm(长度),并具备出众图片画质;配备2枚极限非球面(XA)镜片,不仅实现其轻巧设计,更让图片即使在边角也能展现更好的分辨率;2片ED镜片和1片Super ED(超低色散)镜片则带来优异光学表现,有效抑制色差,同时能在所有光圈范围下,打造出色的对比度并完美重现真实画面,Sony独有的纳米抗反射(AR)镀膜II技术可有效将耀光与鬼影降到最低,以获得清晰的画面。

承袭Sony G Master镜头系列备受赞誉的散景表现,FE 14mm F1.8GM镜头在超广角14mm焦距下仍能打造美丽的散景,而0.25m的最近对焦距离为拍摄特写和视频带来更多挥洒创作的可能性;此外,FE 14mm F1.8 GM结合精准XA镜片、9枚圆形光圈叶片设计和优化像差控制的光学设计,可抑制“洋葱圈”现象呈现出优美流畅的散景效果。

FE 14mm F1.8GM采用2个极高动态(XD)线性马达,能提升精准定位镜头对焦组的效率,即使在光圈设置为F1.8的浅景深情况下拍摄也可以准确及稳定地对焦,在极具挑战的拍摄环境下,提供专业摄影师可靠的支持;此外,FE 14mm F1.8 GM镜头的马达设计拥有安静且低震动自动对焦控制的优势,非常适合用于视频内容创作。

全新镜头还具备包括线性响应手动对焦、光圈环刻度开关、对焦模式切换开关与焦锁定按钮等多个符合专业需求且多功能的控制选项,提供创作者在多样拍摄环境中实现流畅作业流程与高性能的操作。

FE 14mm F1.8GM配备镜头的后置滤镜支架可安装一片标准类型的ND滤镜、色彩校正滤片或其他滤镜(随机附滤片切割模板),为拍摄带来更多创作弹性。

FE 14mm F1.8GM的防尘防滴设计为严苛的拍摄环境提供可靠性支持,镜头前玉与后置镜片均采用氟镀膜,以尽量避免沾染手指印、灰尘、水、油等脏污,且同时确保更换后置滤镜时能保持表面清洁。

Google在开发者大会Google I/O 2021上,发布了最新的对话AI模型LaMDA(Language Model for Dialogue Applications),官方提到,这是一个非常复杂的语言模型,比当前所有模型,在理解对话上下文方面的能力都还要好。

Google在语言处理耕耘已久,从早期的网页翻译功能,到最近应用机器学习技术,以更好地了解用户的查询意图。但语言表达非常的细致,除了字面上的意思,许多时候还包括象征意义,并且具有平铺直叙、词藻华美,或是仅提供信息的实用性用途,Google提到,这些多样的语言特性,使其成为计算机科学的一大难题。

而Google最新发展的LaMDA技术,能够更好地克服这些问题,特别是在语言处理的对话应用上。官方表示,虽然对话都是从特定主题展开,但是由于对话的开放性,即便从同一个话题开始,却会在完全不同的话题上结束。与朋友聊天话题可能从电视节目,一路聊到拍摄的国家,甚至是该国的美食。

Google认为漫谈的品质,是当前聊天机器人处理对话的困难之一,因为这些机器人的对话,倾向遵循狭隘且单调的预定义路径发展。而最新的这个LaMDA语言模型,能以自由流动的方式,处理无数个主题,Google认为,该技术可以提供更自然的交互能力,并且打开应用程序更多的可能性。

LaMDA对话技术已经发展许久,如同BERT和GPT-3等语言模型,LaMDA也是以Transformer为基础构建。Transformer是由Google研究院在2017年所发明,并且开源的神经网络基础架构,该架构能够生成一种特别的模型,可被训练来读取单词,并且关注单词间的关联,甚至是预测紧接在单词之后的字词。

但与大多数语言模型不同的是,LaMDA特别接受了对话训练,在训练过程,LaMDA学习开放式对话与其他语言应用之间的细微差别,Google提到,对话不只要是合情合理,如果符合谈话上下文的回应,就会更有意义。Google以“我刚刚开始上吉他课”对话为例,合理的回应包括“那很好”和“我不知道”,在语义上都没有问题,但如果能够回应“太令人兴奋了吧!我妈也很喜欢弹奏他的老吉他”,通过明确地回应与对话上下文有关的内容,可让回应不只合理并且更具体。

LaMDA是创建于Google在2020年所发布的早期研究基础上,研究显示,通过对话训练的Transformer语言模型,可以学会谈论任何内容,并且经过训练,还能微调LaMDA,提高该模型在回应内容上的敏感度和具体性。

除了在LaMDA的初期结果,研究团队追求合理且具体的回应之外,Google还希望LaMDA可以回答更有趣、出乎意料甚至是机智的内容,而且Google也想让LaMDA更关注事实,确保LaMDA的回应不只吸引人而且正确。官方也提到,语言模型可能内化歧视、复制仇很言论,甚至传播误导性消息,即便是经过仔细审查的语言模型,仍可能被滥用。

Google在创建LaMDA的同时,便试着减少这些可能的风险,除了开源研究之外,研究人员也对LaMDA开发的每一个步骤进行审查,避免在将LaMDA应用到产品中时,发生机器学习模型可能出现的问题。