Google研發新技術 幫你解碼低像素照片

by:泥仔
10993

Google最近發布一項新的AI技術,能把低像素的圖片轉化成較高的像素,讓人們不用再對畫質差的圖片傷腦筋。

post title

不管是解析度再高的圖片,只要把圖片放大再放大,就會看到像是小方格的像素。

Photo: Davi Sommerfeld

有看過這樣的畫面嗎?

在看電視或電影的時候,你是不是有看過類似的畫面:觀看監視影像的主角突然鎖定了某個畫面,把影響放大再放大,然後用一種神奇的技術,就可以把本來只剩模糊像素的圖像清晰的顯示出來。

找出提升低畫素的方法

類似的劇情總會讓我們對這種不可思議的技術一笑置之,不過在近日,Google裡研究深度學習的團隊Google Brain表示,他們研發出新的AI技術,將 8x8的解析度提升成 32x32像素的圖像。

post title

左邊是 8x8像素的原圖,右邊是高畫質圖片壓縮成 32x32像素的樣貌,中間則是電腦重置的版本。

Photo: Google Brain

比較像是以圖搜圖

嚴格說起來,Google Brain所研發的技術並不是真的把原圖的解析度提升,而是比較像「幫你找到類似圖片」。

先找到類似的圖  然後填色

這個技術大概可以分成兩個階段,首先是讓AI從資料庫撈出類似的圖片,並精簡到 8x8像素後,透過色塊和輪廓辨別哪一張圖跟原圖長得最相像。

等到找到最相像的照片後,AI就會根據找到的高解析照片,依樣畫葫蘆地幫原圖填補色彩,藉此提升原圖的解析度。

最後,AI會再將兩個階段生成的圖像合成,創造出最近似於原始圖像的優化圖片。

不是什麼神奇戲法

當然,這樣的系統並不是魔術,有時AI也會缺乏足夠的資訊來重建原始的圖像,偶爾AI也會出槌,給出一張跟原圖完全不同的圖片。

post title

圖表左邊第一列是原圖,右邊三列則是用Google技術繪製的重置圖,其他排則是其他技術繪製的重置圖。

Photo: Google Brain

起碼可以看出端倪

儘管有待進一步開發,而且許多圖像細節很容易被搞錯,研究仍認為目前的成效算是不錯的,至少完成的輪廓可以讓人更精準地推測出照片裡有哪些東西。

被電腦重置圖釣到

在進行圖片比較時,大概有 10%的人在辨識高解析壓縮成 32x32像素的人臉照和電腦重置成 32x32像素的人臉照時,會以為後者才是原圖。如果是在辨識房間的圖片,則有 28%的人會被電腦重置圖騙到。

比另一個技術來得擬真

雖然說 50%的上當率才堪稱比較完美的成績,但是跟另一種圖像處理技術「雙三次插值演算法」(Bicubic Interpolation)相比,Google Brain所研發的技術仍然算是頗有成效。畢竟在研究中,「雙三次插值演算法」所製作出的圖像,完全沒辦法騙到受試者,受試者也有向團隊表示,他們重置出來的圖片相較起來擬真地多。

post title

雖然一格一格的正方形色塊讓人看不出所以然,但隔著一段距離可以來稍微看出端倪。

Photo: Jarrett Campbell

最近剛發布類似技術

其實Google在今年 1月也發布了類似的技術:RASIR(全名為快速且精準的超級圖像解析度,Rapid and Accurate Super Image Resolution)。

RASIR讓Android版的Google+上的圖片壓縮到原始圖片的四分之一,但使用者想要放大圖片閱覽時,系統會直接在低畫質版本上的圖片補上細節,讓他看起來就跟高畫質的原始圖片一樣。


延伸閱讀:《假相不要來 Google推出「真相認證」機制
拿了商品就閃人 亞馬遜超市沒收銀員
梅克爾自拍後......難民成恐怖分子要告臉書

參考資料:
01 Real life CSI: Google's new AI system unscrambles pixelated faces
02 Google Brain super-resolution image tech makes “zoom, enhance!” real
03 Google uses AI to sharpen low-res images
04 Google figured out how to turn pixelated images into high-res ones

加入好友

分享:

  分享這篇文章