前瞻資訊科技二Lung-Pan's Reading assignment: The Ultimate Display
upload date:6/6/2019
\documentclass{article}
\usepackage[utf8]{inputenc}
\usepackage{CJKutf8}
\usepackage{graphicx} %插入图片的宏包
\usepackage{float} %设置图片浮动位置的宏包
\usepackage{subfigure} %插入多图时用子图显示的宏包
\title{前瞻資訊科技作業}
\author{高為勳, 資工二 {\it B06902116}}
\date{June 2019}
\begin{document}
\bibliographystyle{plain}
\begin{CJK*}{UTF8}{bsmi}
\maketitle
\section{Problem 1}
\begin{itemize}
\item Do you agree with the author's vision? If yes, please point out related works/papers and describe what they have done. If not, please explain your reasoning and provide counter examples (at least one reference has to be included and cited by the citation function in Latex).
\end{itemize}
我覺得我大概有9成9同意,至於為甚麼是9成9,首先,原文裡面提到,computer display的種類有越來越多樣化的趨勢,電腦可以畫出人類想要的圖形,例如用電腦畫出三角形,或是其他更複雜的多邊形,從此處再進展到平滑曲線的圖形,而一個無規則的圖形便可以展示出來。此外,為了讓電腦更理解我們人類在想甚麼,人類發明了觸控筆,鍵盤,搖桿,控制鈕等等,為的其實也就是將我們人類的想法有效率地傳達給電腦,讓電腦做我們想要做的事,進而更能展示出我們想要看到的東西,而隨著科技的進步,腦機介面這樣的技術也在漸漸發展,何謂腦機介面?就是收集腦中的訊號,將這些信號經過機器學習來萃取出有用的資料,從而讓電腦理解我們人類當時正在想的事情。
下面引用了一則paper\cite{name1}作為參考,這則paper裡面提到腦機介面現在有許多應用,如幫助失明失聰等嚴重的病患,透過機器使其能夠與周遭的環境互動,除此之外,環境控制也是一大應用,機器透過感應的方式,收集我們的眼神脈搏手勢之類的訊號,理解我們想要對環境做的某些操控,從而使機器做出我們想要做的事,達到環境控制的目的。這也就跟原文中最後幾句話提到的情景非常相似,人類能夠使個眼神來控制電腦,電腦透過不斷的收集我們身上的訊號,來與人類互動。在未來,電腦甚至能夠產生訊號讓我們接收,例如近來很夯的虛擬實境,電腦能夠產生逼真的視覺與音效混淆我們的大腦,然後電腦再不斷接收身上的訊號做出情景改變與五感回饋,讓我們以為我們身處其境,甚至現在也已經有了能夠產生嗅覺的機器。儘管如此,電腦確實能夠在最終的未來創造出虛擬世界,然而以電腦創造出來的虛擬世界來說,或許我們能夠感覺到我們正坐在虛擬椅子上,被虛擬手銬銬住以為自己動彈不得,但讓人類真的死亡的虛擬子彈是不存在的,除非電腦發出高壓電電死人類。
\clearpage
\section{Problem 2}
\begin{itemize}
\item Please illustrate your future user interface and describe your vision (sketch it using pen and paper or using Microsoft Paint, Adobe Illustrator or any other drawing softwares and insert the picture into to your Overleaf project).
\end{itemize}
\begin{figure}[H]
\centering
\includegraphics[width=0.7\textwidth]{interface.jpg}
\caption{user interface}
\label{Fig.interface}
\end{figure}
很顯然的,我們的總目標就是要讓電腦能夠知道我們在想甚麼以及讓我們得到電腦給我們的訊息,因此我想在未來的世界裡,user interface會直接與我們的腦部相連,利用如圖Figure 1中的頭部感應器,實現與機器之間的訊號流通,使得我們能夠看到機器要讓我們看到的東西,聽到機器要讓我們聽到的聲音。而透過手部等肢體感應器,可以隨時偵測手部與身體的相對位置,判斷出我們做出的動作,使得機器得以實現「觸控」的功能,也就是說,在未來我想像的這個user interface中,只要我用手點一下我眼睛看得到的選項,機器就會判斷出我想要做甚麼,從而實現互動。藉由這樣的使用者介面,我們可以集大部分生活所需電子產品於一身,如手機,智能翻譯,地圖,遊戲機,相機等
而我設計的介面中,左上角是常駐顯示的日期與地區溫度等天氣資訊,右上角是功能選單及時間,正下方可以左右滑動選取需要的功能,最後是視線所及範圍內對物體的辨認以及資訊放送
\bibliography{GG}
\end{CJK*}
\end{document}