• <tr id="c82nl"><optgroup id="c82nl"></optgroup></tr>
    1. 當前位置:首頁 > 科學傳播 > 科普動態

    科普動態

    智能科學與技術科普展廳正式開放

  • 發表日期:2013-05-10 【 【打印】【關閉】
  • 在北京市科委支持下,自動化所承擔了北京市科技計劃企業、高等院校和科研院所科普場館建設項目“中國科學院自動化研究所智能科學與技術科普展廳建設”課題(編號Z121110001912019)。本項目以“智能科學與技術”作為科學普及的切入點,全面展示我國自動化學科和智能科學學科的歷史進程與發展趨勢,引領大眾了解智能技術最新研究進展,提升對未來智能生活的認識,發現和培養具有寬口徑知識、較強適應能力和現代科學創新意識的技術人才。

    “智能科學與技術”是當前自動化學科和智能學科交叉融合產生的新方向。智能科學與技術研究的覆蓋面廣,涉及機器人技術、新一代網絡計算智能系統、微機電系統(MEMS)、新一代人機交互技術等,與國民經濟、工業生產及日常生活密切相關。經過近三十年的發展,智能技術及其應用已經成為IT行業創新的重要內容,其廣泛的應用前景日趨明顯,如智能機器人、智能化機器、智能化電器、智能化樓宇、智能化社區、智能化物流等等,對人類生活的方方面面產生了重要的影響。智能科學與技術是自動化工程、機電工程、計算機工程等工程學科的核心內容,具有很強的工程性和實踐性,同時融合了機械、電子、傳感器、計算機軟硬件、人工智能、智能系統集成等眾多先進技術,充分體現了當代信息技術多個領域的先進技術。

    經過一年的建設,自動化所智能科學與技術科普展廳將于近日正式對外開放。展廳坐落于北京市海淀區中關村東路95號的中科院自動化所院內,主要展示空間集中于智能化大廈一層,報告廳位于自動化大廈13層。

    智能科學與技術科普展廳總面積為800余平米,共包含六個展室:

    1)成果展示廳:以展板形式展示國內自動化和智能學科的發展歷史,以及部分珍貴的文獻資料和成果實物;

    2)前沿技術廳:以展板形式展望智能科學與技術領域未來的發展趨勢,以及未來智能生活的暢想;

    3)交互體驗廳:包括四項常設智能化互動展品和多項臨時展品,四項常設展品包括:

    a.集成生物特征識別功能的智慧機器人:將生物特征識別技術、語音識別技術、語音合成技術、機器人技術結合的智能交互機器人;

    b.基于云計算的移動終端語音翻譯:提供10臺的裝有中英文口語翻譯系統——紫冬口譯的移動終端,以及支撐遠程翻譯服務的云平臺;

    c.組合式自主行駛微縮智能車:提供5臺按照1:10比例開發的微縮智能車,以及61平米的模擬交通場景;

    d.全景拍攝系統和虛擬漫游:完成北京14個景點和無錫10個景點的三維全景展示系統,包括環境中地點分布圖及各地點的三維全景圖或全景視頻展示。

    4)弧幕演示廳:120平米能夠容納30名觀眾的120°弧幕影院,可展示多媒體形式的智能科學與技術領域最新成果宣傳和技術概念;

    5)科普報告廳:220平米能夠容納220名觀眾的科普報告廳;

    6)網絡展示廳:在新浪微博上開設“中國科學院自動化研究所”賬號,建立展館的線上交互體系,擴大展館的認知度和宣傳覆蓋面,并根據網絡反饋改善展品功能。

    敬請關注我們的網站(www.outcastdigital.net)和微博(@中國科學院自動化研究所),展廳開放信息將及時發布。團體觀眾請聯系張老師(010-82544556)協調參觀時間。

    展項介紹一:集成生物特征識別功能的智慧機器人

    人臉、指紋等生物特征識別技術是信息技術、人工智能、模式識別、光電工程等科學領域的前沿方向,同時也是保障國家和公共安全的戰略高技術、電子信息產業新的增長點。目前我國大部分民眾對信息安全領域的尖端技術——生物特征識別知之甚少,因此開展生物識別技術相關科普展項活動具備重要意義。本項目開發了一套國際領先、具有自主知識產權的、集成人臉、指紋圖像獲取與識別的多模態生物特征識別演示系統,采取機器人互動交互以及多媒體人機交互的生動形式,讓普通老百姓通過親身體驗來了解人體有哪些主要的生物特征信息,計算機是怎樣利用這些生物特征進行自動身份識別的,生物特征識別能解決哪些安全問題,相對于其他身份識別方式有什么特點和優點,以及目前我國自主知識產權的生物特征識別技術已經發展到了什么樣的水平。

    集成生物特征識別功能的智慧機器人以仿人形機器人作為載體,集成生物特征識別技術,通過注冊將觀眾的臉像、指紋等個人生物特征與錄入的個人信息相關聯,之后觀眾與機器人交互時,機器人可以認出已經注冊的觀眾,并利用注冊時錄入的觀眾個人信息進行個性化的人機交互,機器人具有語音交互功能,觀眾可以用手持麥克與其對話,對話內容為注冊時錄入的個人愛好,且在交互過程中以動作配合。

    生物特征識別技術應用于機器人載體上,體現出以下三個方面的特點:

    1)機器人參與的生物特征采集模式。

    2)基于身份識別結果的個性化問候及娛樂互動。

    3)機器人控制與多媒體形式融合的人機互動。

    本展項主要包括生物識別和機器人兩大部分:

    1)機器人:包括機器人本體、控制系統、軟件系統等。

    2)生物識別:臉部、指紋等多模態生物特征的傳感器和識別算法。

    智慧機器人的外觀效果圖如圖所示。生物識別部分為注冊端,機器人部分為識別端,注冊端與識別端通過無線網絡互聯,觀眾在注冊端登記個人信息,錄入個人生物特征,然后就可以到識別端與機器人進行交互,機器人通過指紋或人臉特征識別觀眾后,首先對觀眾致以問候,然后根據觀眾的興趣愛好進行語音交互。

    展項完成了機器人骨架和外殼的制作,在機器人本體上安裝了電氣控制系統,實現對移動底盤、機械手臂等的驅動功能,安裝無線麥克以及音響系統實現音頻IO功能,并使用CAN總線將電氣控制系統與主控計算機相連接,使機器人控制與語音交互功能結合為一個整體。下圖為機器人內部骨架示意圖。

    下圖為機器人外殼設計效果

    在注冊端實現了圖形用戶界面,能夠引導觀眾逐步完成個人信息的注冊,并可以在注冊端驗證識別效果,指紋識別模塊識別正確率達到99%,響應時間小于1秒,人臉識別模塊識別正確率達到90%,響應時間小于2秒,生物特征識別性能達到設計要求。下圖為注冊端軟件指紋注冊界面效果。

    交互過程分為兩部分:首先是用戶注冊,分別輸入人臉和指紋信息,選擇自己喜歡的游戲項目,例如唐詩、美食、體育、音樂等;然后是用戶識別階段,用戶可以注冊人臉或者指紋信息實現準確身份識別,機器人通過觀眾的身份和喜好提供個性化的服務,包括對話、唱歌、背唐詩、講笑話、信息查詢等。

    參與互動的觀眾需要完成兩大步驟。

    第一步是“讓機器人記住你”。觀眾在注冊端的生物特征識別系統前錄入自己的生物特征。具體操作流程是:

    1、點擊“注冊”按鈕,彈出信息錄入界面。系統為觀眾生成吉祥物角色(如“晶晶”);觀眾自主選擇個性化屬性,包括出生年月日及愛好。錄入完成后,點擊“確定”按鈕,進入注冊界面。

    2、在注冊界面的左下角點擊“注冊人臉”按鈕,注視系統界面2~5秒,便可完成注冊。此時系統將給出語音提示:“**,很高興認識你”。

    3、觀眾也可以點擊“注冊指紋”按鈕,按照系統提示注冊指紋。

    第二步是“讓機器人跟你交流”。觀眾走到機器人面前,機器人將認出你是誰,并根據你的愛好跟你語音交流互動。具體流程如下:

    1、當觀眾站在機器人面前的時候或觀眾直接接觸機器人身體上的指紋識別模塊時,機器人認出觀眾則向觀眾致以問候,同時根據注冊時錄入的個性屬性說出觀眾的生日、愛好等信息。

    2、問候完畢時,進入語音互動環節,觀眾用話筒根據機器人胸前的屏幕提示,與機器人進行語音交互。

    通過本科普展項,普通老百姓可以與生物特征識別技術和機器人技術進行零距離接觸,了解生物特征識別的技術原理,初步認識到生物特征識別的廣闊應用前景,同時也可以了解到智能服務和娛樂型機器人的科學原理,以及自動語音識別與合成技術的切身體驗,從而對生物特征識別技術和機器人技術不再陌生,讓科技智慧的種子撒播到民眾心中。

     

    展項介紹二:基于云計算的移動終端語音翻譯

    圣經里有個關于“通天塔”的故事:據說遠古時代的人類是講著同一語言的。他們決心造一座能直聳天際的巨塔,企盼能登上天堂。隨著通天塔越造越高,眾神開始感到恐懼,于是三番四次制造天災摧毀巨塔,人類卻毫不氣餒,繼續著與神的抗爭,眾神最后釜底抽薪,令所有人類各自說著不同的語言,人類無法溝通,通天塔最終半途而廢。

    為了實現全球范圍內跨國跨語種交流,人們一直在尋找克服語言障礙的途徑:先是翻譯,然后是世界語,再到計算機自動翻譯。從1945年信息論先驅Warren Weaver提出機器翻譯的可計算性,計算機自動翻譯之路已經走了60多年。作為智能計算機研究的主要方向和人機語音通信的關鍵技術,語音識別技術一直受到各國科學界的廣泛關注,實現無障礙的跨語言溝通也一直是機器翻譯追求的目標。但是,從理論上證明機器翻譯完全可計算仍然是一件并不容易的事情。實現語音識別曾一度被喻為“登陸月球”,而語音翻譯則被人們喻為“登陸火星”,可見口語翻譯的難度之大。

    國際上對口語翻譯較早,進行研究的主要是德國Verbmobil開發計劃和國際口語翻譯先進研究組織(International consortium for Steech Translation Advanced Research,C-STAR),并于2010年發展為國際口語翻譯先進研究聯盟(Universal Speech Traslation Advanced Research Consortium ,簡稱U-STAR)。我國科學家在上世紀90年代中期介入這個領域,一直保持著雄厚的研究和技術實力。即使在過去十年,語音研究進入全球研究低潮期時,中國科學院自動化研究所也仍然保留了一支適度規模的隊伍,為今天“紫冬口譯”的誕生奠定了堅實的人才和技術基礎。

    基于云計算的移動終端語音翻譯平臺具有以下特點:

    1、可靠性和擴展性特性支持;可根據業務需求靈活配置計算能力,可動態增減計算節點;多入口服務,提供持續在線的服務保障;多點多入口和單點多入口;服務故障容錯,節點宕機不影響總體服務;可在線動態更新升級;

    2、高準確度的語音識別:基于海量語音庫的高精度聲學建模;多種通道、廣泛客戶端的真實采樣;數百G的通用領域語言建模;針對新聞和口語的特殊優化;

    3、高質量的輔助翻譯:數千萬句對的雙語建模;對旅游、日常對話等口語交流領域的特別優化

    4、語音云平臺支持多種負載能力的應用場景:最小化情況,可以單機部署;多機部署,自動負載均衡;支持上百計算節點的部署規模;

    5、支持多種平臺的操作系統:服務端支持Windows Server系列 / Linux系列;提供C++、Java等語言API調用接口;客戶端支持iOS、Android操作系統,提供不同功能級別的封裝接口。

    “紫冬口譯”移動終端口語翻譯系統是運行在iPhone/Android等智能手機終端上的App應用,通過3G/Wifi網絡連接云端的口語翻譯服務,云端后臺部署計算集群,提供口語語音識別、機器翻譯和TTS服務。其中語音云平臺的架構如下圖所示。

    口語翻譯系統的框架流程圖如下。

    系統可以安裝運行在安卓、iOS等操作系統的智能手機或平板電腦上,使用者通過3G或者無線局域網訪問口語翻譯的語音云平臺,能夠隨時隨地獲得在線翻譯服務。用戶在手機上打開口語翻譯軟件,對著手機說出想翻譯的話(比如是一句中文),用戶的語音通過網絡送到后臺云計算中心,先進行口語語音識別,得到用戶所說的文字,然后用海量語料訓練的翻譯系統進行翻譯,得到目標語言(比如英文)的翻譯結果,最后通過文本轉語音模塊,將目標語言的語音信息連同之前的識別和翻譯文本一同發回到用戶手機上,用戶將在手機上看到和聽到剛才自己說的那句話翻譯之后的結果。在強大的云計算集群和高速網絡連接的支持下,整個翻譯交互過程在數秒鐘之內就能完成,識別和翻譯結果均能達到可用的水平,為用戶帶來了非常便捷和高效的使用體驗。隨著用戶使用頻率的增加,云計算后臺可逐步改進和完善,能夠為用戶提供更加個性化的和更準確的翻譯服務。

    翻譯平臺系統性能指標如下:①復雜聲學環境下的魯棒語音識別能力:具備在人聲嘈雜等條件下的語音識別能力;②口語化的語音識別和機器翻譯能力:對發音清晰日常用句語音識別率和翻譯準確率擬達到90%以上;③大量用戶實時并發服務能力:搭建云計算平臺,滿足大量用戶實時并發服務。

    本課題在展廳中搭建了示范演示系統,并配置了10臺演示終端。演示系統在實現中英文口語精準文本化的同時,更同步完成翻譯和播讀。在使用中,用戶僅需對著手機說出所需翻譯的中英文句子,即可得到語音及文本雙重翻譯結果,即使中英文零基礎的用戶也能通過軟件實現中英文口語交流。系統在語音翻譯功能之外,還添加了在線互動及離線翻譯功能,滿足用戶學習交流及在非網絡環境下的翻譯需求,同時支持連續語音輸入下的短信、郵件及微博的一步發送,適用于移動互聯網的創新型綜合語音類翻譯。

    演示系統集合了云計算、語音識別、機器翻譯、語音合成、人工智能等技術,而該系統本身又有可操控性、直觀性、生動性等特點,且其應用面向生活,因此很適合進行成果科普化,使高深前沿的人工智能技術更容易走進大眾的視野。

     

    展項介紹三:組合式自主行駛微縮智能車

    智能車通常采用視覺、激光雷達、超聲波雷達、GPS等多種車載傳感器來感知環境,并根據所獲得的感知信息控制車輛的方向和速度,從而實現自主、安全、可靠地在特定環境下行駛的功能??s微智能車是智能車的一個縮小版本,它運用計算機視覺、人工智能、自動控制以及機械傳動等不同模塊,組合實現了縮微智能車在縮微交通環境下安全穩定地自主行駛的功能,是一個理想的智能車研究平臺。由于其是真車的縮小版本,其行駛的交通環境也是真實交通環境的縮小版,因此其在克服諸如投入高,實驗不安全性以及調試周期長等真車所面臨的一系列難題上有著極大的優勢。同樣由于其體積小,組裝起來相對容易,所以也是為未來智能交通技術做科普的理想平臺。

    展廳展出的縮微智能車V2.0,具有以下特點:基于計算機視覺的環境感知、基于人工智能技術的智能控制、融合多傳感器進行綜合決策控制以及軟硬件的模塊化設計。

    1.基于計算機視覺的環境感知

    環境感知是車輛自主決策控制的基礎,對于縮微智能車V2.0來說,三個不同位置的攝像頭完成了不同的功能,左右攝像頭完成了道路情況的初探,上方攝像頭完成遠方交通標志及交通信號的捕獲。當三個攝像頭同步完成信息捕獲后,將捕獲的信息分別傳送至相應的處理模塊,不同模塊將處理信息打包發給中心控制程序進行下一步處理。在這個階段,我們利用Canny改進算法進行邊緣檢測、Hough變換檢測直線、設計車道線跟蹤算法以及交通標志和交通信號識別。

    車道線檢測:小車識別車道線的第一步就是找到車道線的形狀和位置,由于攝像頭本身受環境光照,拍攝角度等參數的影響,所以不能保證小車看到的車道線就和人眼看到的一樣。在這種情況下,設計一個很好的車道線檢測算法就顯得尤為重要。我們的車道線檢測算法主要分為兩個模塊:Canny改進算法進行邊緣檢測和Hough變換檢測直線。

    Canny算法是一種常用的邊緣檢測算法,其由加州伯克利大學的教授J.Canny提出。展項設計過程中采用了改進的Canny算法,引入了投票機制,可以在設計提取邊緣點的閾值時做到閾值的自適應性,實驗表明這可以明顯改善邊緣的提取,為后續Hough變換檢測車道線提供好的保證。

    Hough變換是從二維空間到參數空間的一種映射,對于二維空間中在同一條直線上的點而言其映射到參數空間中對應一族相交于同一點的線,而參數空間中相交于同一點的線則對應二維空間中共線的點。利用Hough變換尋找直線,就是利用上述性質,尋找二維空間中共線的一些離散點。需要注意的是,在實際應用中參數空間常常選用極坐標表示形式。其步驟如下:

    S1:輸入二值化的邊緣檢測圖像;

    S2:將圖像分為個區域,并為每個區域分配一個累加器;

    S3:分別計算每個區域中點對應參數空間中的、,對應的累加器值加1。

    S4:對于滿足累加器值大于20的(即至少找出同一條直線上的20個點)、予以保留,并在對應的二維空間中擬合生成一條直線。

    車道線跟蹤算法與交通信號識別:車道線跟蹤是控制小車正常行駛的基本要求,我們采用最近距離法選取小車車道線,然后計算出虛擬中線,始終讓小車坐標系的坐標原點和虛擬中線保持在一個較小的誤差范圍內就是我們車道線跟蹤的控制策略。

    按交通信號指示通行是小車在道路上行駛必須遵守的規則,在交通信號識別上算法流程如下:

    S1:對輸入的圖像進行HSV空間變換;

    S2:進行交通信號檢測;

    S3:交通信號分類識別;

    S4:輸出檢測結果。

    2.基于人工智能技術的智能控制

    在這一個模塊,課題組將不同傳感器捕獲并處理后的感知數據送到我們構建的控制規則庫里進行處理,這些控制規則是人工抽取的,代表了人工智能的一個實現方法。實驗表明,其具有非常好的控制能力。本展品所采用的控制規則如下圖。

     

    3. 融合多傳感器進行綜合決策控制

    想讓車輛安全穩定地行駛,有足夠的全面的實時環境信息是非常有必要的,它們為智能控制提供了數據基礎??s微智能車V2.0里用了三個攝像頭放在車輛的不同位置,以及一個超聲波雷達傳感器作為感知環境信息的窗口,并在控制規則庫里很好地設計了多傳感器融合的規則:即協同利用左右攝像頭捕獲的障礙物形狀信息及超聲波波雷達傳感器捕獲的障礙物距離信息。具體流程如下:

    S1:讀取左右攝像頭的圖像,對其進行HSV空間變換以及形態學處理;

    S2:對變換處理后的圖像進行輪廓檢測;

    S3:對檢測到輪廓的區域按設定的閾值進行區域判定,輸出有無障礙物信息;

    S4:結合圖相處理的結果與超聲波波雷達檢測的信息,輸出更加準確的障礙物信息。

    4.軟硬件的模塊化設計

    軟硬件的模塊化設計是實現科普及方便科研的非常好的一個設計思路,縮微智能車V2.0無論從軟件還是硬件的設計上都遵循模塊化設計的原則:道路邊緣檢測的算法和直線檢測的方法之間是相互獨立的;障礙物形狀判斷與障礙物距離判斷的模塊是獨立的;交通標志、交通信號燈與障礙物、車道線的方法實現間也是獨立的;控制決策模塊和控制執行模塊間是相互獨立的。如果研究人員想在這個縮微的平臺上實現某個模塊的改進,其完全不必要對整個軟件硬件體系有很多的了解和更改,只需專注于他想改進的模塊即可。硬件也是如此,不同傳感器之間相對獨立,隨著科研工作的推進,會有越來越多的傳感器加在小車上,我們也為這些傳感器提供了6個USB接口。

    基于以上技術特點的縮微智能車V2.0具有以下主要功能:

    1.交通信號識別:車輛在行駛過程中,需要遵守一定的交通規則,這樣才可以保證車輛安全快速地在道路上行駛。交通信號是主要的交通元素,行駛車輛按照交通信號指示行駛,也是交通法最基本的規定。因此,對于無人車來說,其要遵守一定的交通規則,則必須具有識別道路上的交通信號的功能,這里的交通信號包含了交通信號燈和交通指示標志??s微智能車V2.0具有很好的交通信號識別能力。

    2.障礙物檢測:車輛在道路上行駛,尤其是在非結構化道路上行駛的時候,常常會遇到不同形狀,不同類別的障礙物。障礙物的存在具有非常大的隨機性,如橫穿馬路的行人,如樹上飄落的樹枝等等??s微智能車V2.0具備很強的障礙物檢測能力,保證了車輛在道路上的安全行駛。

    3.車道線跟蹤:高速公路和城區道路可以分別定義為結構化道路和非結構化道路。車輛在結構化或半結構化的道路上行駛,除非在超車,換道行駛或是避障的情況下需要變道行,否則需要盡量遵循保持各自車道的原則。保持在各自車道行駛也是現代交通的高明之處,其可以保證車流安全,快速,高效地駛往目的地??s微智能車V2.0具備很好的車道線跟蹤能力,滿足現代交通的基本要求。

    4.超車:車輛在道路上行駛,經常會遇到前車速度很慢,而左道又閑置無車的情況。這種情況第一不利于道路的合理利用,第二延長了車輛到達目的地的時間。為此,合理而適時的超車行為可以有效地改善以上兩種情況??s微智能車V2.0擁有規范的超車功能。

    展項介紹四:全景拍攝系統和虛擬漫游

    全景拍攝所得到的圖像和視頻現場真實感強,以專業方式拍攝的圖片可以高度還原實際場景的光影氛圍與物體材質感,因此在瀏覽時可使觀察者獲得強烈的現場感和真實感。而電腦播放要求配置較低。常規的家用電腦即可播放,無需高端圖形工作站。此外,全景拍攝采集便捷,可以在發布過程中根據需求靈活控制數據量的大小,更適合網絡傳播。在應用領域方面,既可廣泛應用于房地產三維電子樓書設計、賓館酒店展示、旅游景點展示、城市景觀展現,也可以應用于電子商務網上的虛擬展廳制作、網上虛擬博物館的展示、政府虛擬城市項目建設以及包括建筑設計和施工單位在內的各大中型企業的企業形象宣傳和項目記錄與匯報等方面。以網絡多媒體技術載體的全景技術制作虛擬漫游系統,具有復合的計算機技術含量,是目前計算機行業最熱點的應用領域之一。

    本展品包括采集三維全景展示所需數據、虛擬漫游系統開發,以及全景知識內容介紹和普及幾大部分。展品設計目標為包括不少于20個拍攝點的景點分布圖及各景點的三維全景圖或全景視頻展示,使用特點為畫面中的地圖區域可以用鼠標左鍵按下,然后上下左右移動鼠標來顯示地圖的不同區域,也可在觸摸屏上用手或觸摸筆接觸屏幕,然后移動來達到相同的效果。展品具體功能包括:①點選地圖中散落著寫有不同名字的藍色標簽,根據標簽左下角的圖案選擇景點的三維展示方式(全景圖或全景視頻);②選中某個標簽后,再次鼠標左鍵點擊該標簽,進入景點介紹信息對話框;③點擊顯示窗口的非按鈕區域,然后在不松開鼠標下上下左右移動鼠標,來轉動場景以從不同的角度觀看全景。

    1、全景拍攝

    全景拍攝由小組成員分別對北京14個景點(奧林匹克森林公園、北京國際創意設計苑、國子監40號、嘉誠印象、航星科技園、圣唐古驛、東雍創業谷、方家胡同46號、人民美術文化園、亮點55創意產業園、方家胡同、國子監胡同、箭廠胡同、五道營胡同)、無錫10個景點(南禪寺、江南水弄堂、陽春橋、中國絲業博物館、祝大椿故居、窯群遺址博物館、水仙道院、清明橋、伯瀆橋、環城古運河)、內蒙(賽罕區政府辦公大廳)等地的25個景點進行數據采集,后期將其整理,分別以全景圖片和全景視頻進行存儲,用于虛擬漫游系統開發。

    2、全景虛擬漫游系統開發

    全景虛擬漫游系統主要包括全景技術介紹、虛擬漫游以及音樂播放器三個模塊。

    ①全景技術介紹:點擊“全景技術介紹按鈕”,彈出全景技術介紹對話框,通過圖片和文字,來介紹全景技術原理、虛擬漫游交互方式和全景技術的應用;

    ②虛擬漫游:用戶點擊“虛擬漫游系統”進入,它是以電子地圖覆蓋所拍攝的景點,以全景圖片和全景視頻兩種方式來展現景點,和用戶之間可以進行互動展示,系統中已經實現鼠標、觸摸筆或手指與觸摸屏之間的交互,用戶點擊地圖中的標簽,可以查看到相關的文字介紹,并可以選擇對話框下方的圖片,進入相應的三維全景圖片或視頻展示,可以通過界面中的控制面板或者觸摸屏進行交互

    ③音樂播放器:在進行虛擬漫游體驗的同時,可以點擊打開音樂播放器,配合不同風格的音樂,可以給用戶更加舒適悠揚的感受,在將來的工作中,可以加入音頻的導游,會使得虛擬漫游更加惟妙惟肖。

    公眾通過這種易于理解、接受和參與的互動體驗,可對全景技術有更加感性的認識及更深刻的理解,達到普及科學技術知識的目的。

     

     

    四虎网址