原文連結: Google的Jeff Dean談AI即將到來的變革

我們邀請到 Jeff Dean,如果你讀過 Jeff 的個人簡介,他在 Google 的某個時期幾乎負責過所有事務,包括監督這個行業的起源以及多年前引發熱潮的 BERT 論文。而且,我們 Sequoia 非常幸運,我們的合夥人 Bill Korn 在加入 Sequoia 之前的約十年裡,與 Jeff 一同負責 Google 的大部分工程業務。 因此,請歡迎 Jeff 和 Bill。謝謝。嗯,Jeff,很高興見到你。我們曾共事幾年,而 Jeff 偶爾還願意和我說話,我為此感到非常自豪。我們偶爾會一起吃晚餐,那非常愉快。是的。不,他現在是 Alphabet 的首席科學家,我想。

AI的當前與未來發展

那麼,我想我們可以開始了。顯然,在座的許多人都對 AI 以及所發生的事情感到興奮。Google 明顯地引入了許多業界賴以為基礎的技術,例如 Transformer 和其他東西。當你放眼 Google 內部以及整個行業時,你認為目前情況如何發展?是的,我的意思是,我認為這個時期已經發展了相當長的時間,儘管它大約在過去三四年才進入大眾視野,但實際上可能從 2012 年和 2013 年開始,人們就開始能夠使用這些在當時看來非常龐大的神經網路來解決有趣的問題,而且同樣的演算法方法也適用於視覺、語音和語言。你知道,這相當了不起,也讓機器學習作為解決這些問題的方法受到了關注,而不是採用更傳統的手工方法。

即使在 2012 年,我們感興趣的一件事就是如何擴展和訓練非常非常大的神經網路。所以,我們訓練了一個當時比其他任何神經網路都大 60 倍的神經網路,我們使用了 16,000 個 CPU 核心,因為那是我們資料中心擁有的資源。嗯,並且得到了非常好的結果。

嗯,那真的,你知道,在我們心中鞏固了這樣一個想法:擴展這些方法確實會非常有效。嗯,並且已經有很多證據證明了這一點,還有硬體的改進,幫助我們提升了擴展到更大模型、更大資料集的能力。你知道,我們有個說法:更大的模型,更多的資料,更好的結果。

嗯,這在過去 12 或 15 年裡基本上是正確的。嗯,至於未來發展方向,我認為,你知道,我們現在擁有的模型能夠做一些非常有趣的事情。呃,你知道,它們無法解決所有問題。呃,它們每年都能解決越來越多的問題,因為模型變得越來越好。

嗯,你知道,我們有更好的演算法改進,告訴我們如何用,你知道,呃,相同的運算成本訓練更大的模型,更有能力的模型。嗯,然後我們有硬體的擴展。我們有,呃,你知道,每單位硬體的運算能力不斷增加,呃,而且我們還有,你知道,強化學習和後訓練類型的方法,這些方法正在使模型變得更好,並引導它們按照我們期望的方式行事,這真的令人興奮。我認為,你知道,多模態是另一個重要的事情,比如擁有,你知道,呃,輸入音訊、影片、圖像、文字或程式碼,並讓它也能輸出所有這些東西的能力,這是非常非常有用的。

AI代理人的真實性與前景

目前整個行業,我認為,都被代理人(agents)迷住了。你認為代理人有多真實?我知道 Google 推出了一个代理人框架。有些東西,不一定是 Google 的,但有些代理人的東西對我來說似乎有點像是空中樓閣(vaporware)。

所以,是的,我的意思是,抱歉各位,我有點直接,有些人會這麼告訴你們。沒關係。我的意思是,我認為那裡有很大的潛力,因為,你知道,我確實看到代理人有一條發展路徑,通過,你知道,正確的訓練過程,最終能夠在虛擬的電腦環境中完成許多人類今天可以做的事情。

你知道,現在它們可以做一些事情,但不是大多數事情。但是提升能力的途徑,你知道,相當清晰。你進行更多的強化學習,你有更多的代理人經驗可以從中學習。你有,你知道,早期的初步產品可以做一些事情,但不是大多數事情,但對人們來說仍然非常有用。

而且我認為類似的事情也會發生在實體機器人代理人身上。就像現在,我們可能接近於從,你知道,在像這個房間這樣混亂環境中的機器人今天還不太能運作,但你可以看到一條路徑,在未來一兩年內,它們將開始能夠在這個房間裡做 20 件有用的事情。

而這將會催生,你知道,相當昂貴的機器人產品,它們可以做那 20 件事。然後,透過經驗學習,它們的成本將會被工程化設計,變成價格便宜十倍且能做,你知道,一千件事情的東西,而這將會引發更多的成本工程化和能力上的改進。

所以這很令人興奮。

大型語言模型的競爭格局

確實如此,而且看起來它即將到來,儘管今天還在摸索階段。但是,呃,嗯,我想很多年輕公司會遇到的另一個問題是大型模型的情況。很明顯,你知道 Google 有 Gemini 2.5 Pro 和深入的研究等等,然後還有 OpenAI 和其他一些參與者。我認為關於有多少大型語言模型,開源的、閉源的,未來會如何發展,這是一個懸而未決的爭論。你怎麼看這個問題?顯然 Google 擁有強大的地位,並且我相信也想在那個領域佔據主導地位,但你如何看待這個格局?

是的,我的意思是,我認為,顯然地,建立絕對尖端的模型需要相當大的投資。而且我認為不會有 50 個這樣的模型。呃,可能只有少數幾個。嗯,而且,呃,有非常多的,你知道,一旦你擁有了那些有能力的模型,就有可能製造出更輕量級的模型,可以用於更多的事物,因為你可以使用像蒸餾(distillation)這樣的技術,我是該技術的共同作者之一,並且在 Nurips 2014 年被拒絕了,理由是不太可能有影響力。

我聽說過,我聽說過那個技術可能幫助了 DeepSeek。所以,嗯,所以那是一個非常好的,呃,技術,如果你有一個更好的模型,然後你可以把它放到一個更小規模的東西裡,實際上非常輕巧和快速,並且具備你可能想要的各種特性。嗯,所以,呃,我的意思是,我認為在這個領域會有相當多的不同參與者,因為,你知道,不同形狀的模型或專注於不同種類事物的模型,但我也認為,你知道,少數幾個真正有能力的通用模型會表現得相當好。

說得有理。

AI專用硬體的重要性

我想硬體是另一個有趣的事情。在我看來,好像每個大型參與者都在打造自己的硬體。顯然,Google 對於 TPU 計畫一直非常公開,但 Amazon 也有自己的。有傳言說 Meta 也有一個。有傳言說 OpenAI 正在打造一個。

你知道,有很多的,呃,硬體,然而這個行業似乎只公平地聽說過 Nvidia。我相信在你的辦公室裡情況並非如此,但是你怎麼,你怎麼看待這個問題?呃,專用硬體對於這些東西有多重要?

是的。嗯,我的意思是,很明顯,擁有專注於機器學習式運算的硬體是非常重要的,而且,你知道,我喜歡說,你想要的是用於低精度線性代數的加速器,而且你希望它們一代比一代更好,並且你希望它們能夠透過超高速網路大規模連接在一起,這樣你就可以,你知道,呃,將你的模型運算分散到盡可能多的,你知道,運算設備上。嗯,我認為這非常重要。你知道,我在 2013 年協助啟動了 TPU 計畫,因為當時看來很明顯我們需要大量的運算能力來進行推論。

那是第一代。然後下一代的 TPU,TPUv2,則同時專注於推論和訓練,因為我們看到了那方面的巨大需求。而我們的,我想我們現在是,呃,出於某些惱人的原因,我們停止給它們編號了。所以現在是,呃,我們即將推出 Ironwood,呃,隨時都可能。

在那之前是 Trillium。所以要小心,那聽起來像是 Intel 的晶片命名策略,從我的 Myricom 的距離來看,效果不太好,這有點……是的。

AI在科學領域的影響

不,我想稍微離題一下,然後也許我們會開放給在座各位提問。呃,我有很多朋友是物理學家。

呃,他們對於 Jeff Hinton 和他的同事們獲得諾貝爾物理學獎感到有些驚訝。我想,你如何看待 AI,呃,你知道,我認識的一些物理學家對於非物理學家開始獲得諾貝爾獎感到有點被冒犯。你認為 AI 在這個時間點上,在各個領域會走多遠?

我想會走很遠。

我的意思是,今年我的同事 Demis 和 John Jumper 也因為這個獲獎了,我差點忘了。是的。是的。所以週一和週二,或者不管是什麼時候,都有雙重諾貝爾獎慶祝活動。嗯,所以我的意思是,我認為這是一個跡象,表明 AI 確實正在影響許多不同種類的科學,因為,嗯,你知道,在其核心,你知道,你是否能從有趣的數據中學習,而科學的許多部分都是關於建立事物之間的聯繫並理解它們,如果你能有 AI 輔助來做這件事,你知道,我在許多不同科學領域看到的一件事是,許多學科通常都有針對某些過程的極其昂貴的計算模擬器,比如天氣預報就是一個很好的例子,或者,嗯,你知道,流體動力學或量子化學模擬。嗯,通常你能做的就是使用那些模擬器作為神經網路的訓練數據,然後,呃,建立一個近似模擬器的東西,但現在速度快了 30 萬倍。

而這就改變了你做科學的方式,因為突然之間,好吧,我要去吃午餐,然後篩選一千萬個分子。這現在是可能的了,而不是,你知道,我得在我沒有的電腦上運行一年。呃,而且我認為那,那只是從根本上改變了你的,你的,你做事的方式,並且會促成更快的發現。

我想,如果此時有觀眾提問,那可能會最有趣。我還有其他問題要問 Jeff,但是,嗯,呃,好吧,其實只是想快速追問一下,你知道 Jeff Hinton 在研究了,我想是,呃,數位和類比運算作為未來,呃,推論和學習平台的影響或差異之後,就離開了 Google。

推論硬體的未來:類比運算?

我想知道,呃,推論硬體的未來是類比的嗎?

這絕對是一種可能性。我的意思是,我認為類比運算在功耗效率方面有一些很好的特性。嗯,你知道,我認為數位產品在推論方面也有很大的專業化空間。

所以,而且通常來說,使用起來稍微容易一些,呃,但是,你知道,我認為有一個總體方向,那就是我們如何才能製造出比今天我們擁有的效率高出 10、20、50、甚至 1000 倍的推論硬體。如果我們下定決心,這似乎是完全可能的。呃,這其實是我目前花費一些時間在研究的事情。

開發者體驗與硬體:TPU與Pathways

嗨,我只是想問關於開發者體驗與硬體的比較。我認為 TPU 硬體非常令人印象深刻,但是在時代精神中,有很多關於 CUDA 或其他不同技術比 TPU 層更容易使用的說法。所以我很好奇你對此的看法。

你是否一直在思考這個問題,或者收到了很多憤怒的電子郵件,或者,呃,是的,我的意思是,我不太常接觸雲端 TPU 客戶,但體驗確實可以改進。嗯,我們從 2018 年開始開發一個名為 Pathways 的系統,它真正能夠,呃,設計用於讓我們能夠整合許多不同的運算設備,然後提供,呃,一種非常好的抽象層,其中你擁有一個由底層執行時期系統管理的虛擬到實體設備映射,並且,呃,你知道,我們對 PyTorch 和 Jax 都提供了支援。呃,我們內部主要使用 Jax,但我們所擁有的是一個單一的 Jax Python 程序,看起來就像它上面有 10,000 個設備,你只需像機器學習研究員一樣編寫你的程式碼,然後就可以開始了。你知道,你可以用 4、8、16 或 64 個設備進行原型設計,然後你更改一個常數,然後針對具有 1000 或 10,000 個晶片的 Pathways 後端執行,然後就可以開始了。

例如我們最大的 Gemini 模型是用單一個 Python 程序驅動整個系統進行訓練的,呃,使用了數以萬計的晶片,而且運作得相當好。所以開發者體驗相當不錯。我想我要說的一件事是,到目前為止,我們還沒有向雲端客戶提供這項服務,但我們剛在 Cloud Next 大會上宣布,我們現在將向雲端客戶提供 Pathways。

這樣其他人就可以體驗到單一 Python 程序附加數千個設備的愉快體驗了。而且我同意,這比管理例如 256 個晶片需要 64 個處理器要好得多。就像,你為什麼要做那樣的事呢?

統一Gemini API存取

我喜歡使用 Gemini API。嗯,如果我們能拿到一個 API 金鑰,而不是像 Google Cloud 的憑證設定那樣,那就更容易了。

你們是否有計畫將 Google Cloud Gemini 堆疊與目前更偏向測試用途的 Gemini 專案設定統一?是的,我想有很多精簡化的工作正在被審視。呃,這是一個已知的問題,不是我個人花很多時間處理的事情,但我知道像 Logan 和開發者端的其他人意識到這個摩擦點。

我們希望讓使用我們的模型變得順暢無礙。

運算基礎設施的未來展望

那樣行得通嗎?好的。所以,嗯,現在是運算領域一個有趣的時期。你面臨摩爾定律和丹納德縮放定律完全失效,同時 AI 卻像瘋了一樣擴展。嗯,你在推動這些超級電腦和正在建構的基礎設施方面處於世界獨特的地位。

而且,而且你知道如何將工作負載映射到這些東西上,這是一種獨特的,呃,技能。你認為運算的未來會是什麼樣子?從一個漸近的思維實驗層面來看,運算基礎設施正朝著哪個方向發展?

是的,我的意思是,很明顯,在過去的五年、十年裡,我們已經大大改變了我們想在電腦上運行的計算類型。

嗯,那最初只是一個小小的漣漪,但現在很清楚,你想要以極高的性能和極低的功耗運行極其龐大的神經網路。呃,而且你也想訓練它們。呃,訓練和推論是截然不同的工作負載。

所以我認為將這兩者視為,你知道,你可能需要不同的解決方案,或者至少是有些專業化的解決方案,這樣想是有用的。嗯,而且我認為你會看到各種運算平台為了適應這個你真正只想運行,呃,極具能力的模型的新現實而進行調整。

嗯,所以其中一部分會在低功耗環境中,比如你的手機。就像你希望你的手機能夠運行極好的模型,呃,帶有很多參數,呃,速度超快,呃,這樣當你和你的手機說話時,它就能直接和你對話,並且能幫助你做各種事情。呃,你會想在機器人,呃,和自動駕駛汽車上運行這些模型。

呃,你知道,我們已經在一定程度上這樣做了,但更好的硬體將使這些系統更容易建構,更有能力,呃,你知道,現實世界中的實體代理人,然後你會想在資料中心以極大規模運行它們,然後你還想將大量的推論時間運算用於某些類型的問題,而不是其他問題,所以你有問題,你知道,很明顯,對於某些問題,你想要使用比其他問題多 10,000 倍的運算量,而這是一個我們擁有的很好的新的擴展旋鈕,呃,可以讓你的模型更有能力,或者給你,你知道,呃,更好的答案,或者讓模型能夠用那麼多的運算量做一些它用,你知道,一個單位的運算量做不到的事情,嗯,但你不應該在所有事情上都花費 10,000 倍的運算量,所以,嗯,你如何讓你的系統在這方面運作良好,我認為這是硬體、系統軟體、你知道,模型和演算法技巧、蒸餾所有這些東西的結合,可以幫助你讓,呃,令人驚嘆的模型在小型的運算足跡中實現。

重新思考演算法分析

我注意到的一件事是,嗯,至少在傳統上,電腦科學,你知道,呃,當人們研究演算法和計算複雜性時,都是基於操作數量的,而我認為,隨著人們重新發現硬體和硬體細節以及系統設計,我認為重新受到關注的一件事是,你需要考慮網路頻寬和記憶體頻寬等等,所以我認為很多傳統的演算法分析需要被徹底重新思考,呃,只是因為真實計算的現實情況。

是的,我研究所的一個辦公室夥伴的論文就是關於快取感知演算法的,因為大O符號那種數量級的表示法沒有考慮到某些操作比其他操作差 100 倍的事實。是的。沒錯。

而且我認為在現代機器學習運算中,你非常在意極小規模的資料移動,例如將資料從 SRAM 移到累加器會消耗你一些微小的能量,一些微小的皮焦耳,但這遠遠超過實際操作本身的成本。所以,如今能隨口說出皮焦耳是很重要的。

Jeff Dean談程式碼生成工具

呃,我還有一個簡短的問題。你用程式碼生成工具(vibe code)嗎?呃,我試用了一點。它實際上效果出奇地好。嗯,是的,我的意思是,我們有一些不錯的,呃,我們有一個小型的展示聊天室。實際上,我們有很多聊天室。呃,我們基本上是透過聊天室來運行 Gemini。所以我大概在 200 個聊天室裡,當我起床刷牙的時候,我會收到大概九個通知,因為我在倫敦的同事們正忙著做事。

嗯,例如我們有一個,人們可以在上面發布他們看到的很酷的東西的演示。我看到一個特別酷的是,你輸入一個 YouTube 教育導向的影片。好的。然後提示只是類似「請為我製作一個教育遊戲,利用圖形和互動性來幫助說明這個影片的概念」。

而且你知道,它並非每次都成功,但有 30% 的機率你會得到一些實際上還挺酷的東西,而且與微分方程、前往火星,或者你知道,呃,做某種細胞方面的東西有關。而且你知道,這對教育來說是一個令人難以置信的跡象,就像我們現在擁有的以及未來幾年將擁有的工具,真的有這個驚人的機會以如此多積極的方式改變世界。

所以我認為我們都應該記住,這才是我們應該努力追求的目標。

搜尋的未來:Gemini與Chrome的整合

嗯,你介意把麥克風傳到那邊,然後或許那邊,是的,我們很想聽聽你對於,呃,搜尋的未來以及,呃,特別是考慮到,嗯,Chrome 擁有如此巨大的,呃,發行量,對吧,然後,呃,特別是 Chrome 已經知道憑證,像是付款和網站登入憑證。

呃,你有沒有想過把 Gemini 直接整合到 Chrome 裡,然後,你知道,讓 Chrome 應用程式變成 Gemini 應用程式,而不是另外做一個獨立的應用程式?你知道,我這麼說是因為我是個長期的 Googler,所以,你知道,考慮一下。

是的。我的意思是,我認為核心的 Gemini 模型或其他模型確實有很多有趣的下游應用。

你知道,其中一個是它能否透過觀察你在做什麼,以及對標籤頁進行 OCR,或者也許它可以存取原始標籤頁內容,來幫助你在瀏覽器或整個電腦桌面上完成工作,你知道,那看起來會非常有幫助,而且,呃,你知道,我想你知道,我們在這個領域有一些早期工作,我們已經以影片形式公開展示了,看起來相當有用,像是 Mariner 之類的東西。

所以待定,你把 Jeff,呃,問題給你。

基礎模型競賽的終局

呃,所以謝謝你的評論,非常有見地。嗯,你之前提到,像是,你知道,基礎模型參與者的數量,你知道,可能只有少數幾個,而,你知道,這主要是因為,你知道,基礎設施成本和投資規模,呃,才能保持在那個尖端。

嗯,所以,隨著這場爭奪前沿的戰鬥展開,你如何看待,你如何,你認為這場終局會走向何方?你知道,這會把我們帶向何方?是,是誰投入最多資金建造最大集群誰就獲勝,還是,你知道,更好,你剛才談到像是更好地利用統一記憶體優化以及,你知道,不同,你知道,有效利用你已擁有的資源,或者,呃,是消費者體驗,或者說,這場軍備競賽,呃,會把我們帶向何方?

難道不是誰先達到 Skynet 的程度,遊戲就結束了嗎?嗯,是的,我的意思是,我認為,呃,這將需要非常好的、有洞察力的演算法工作,呃,以及非常好的系統硬體和基礎設施工作。

我不認為其中任何一個比另一個更重要,因為我們在例如我們的 Gemini 從一代到另一代的進程中看到的是,演算法的改進與硬體的改進同等重要,甚至可能更重要,或者說我們投入到問題中的硬體數量更多。

呃,但兩者都極其重要。嗯,然後我認為從產品的角度來看,你知道,它,這個領域有一些早期階段的產品,但我認為我們還沒有共同找到那個,或者它可能將是許多事物,成為數十億人日常使用的產品,對吧?我認為可能有一些在教育領域,或者在,你知道,一般的資訊檢索領域,類似於搜尋,但,但充分利用了,呃,嗯,

你知道,呃,大型多模態模型的優勢。呃,我認為可能幫助人們在,你知道,呃,他們所處的任何工作環境中完成工作,將會是一件非常有用的事情。而這將如何在產品環境中體現出來?你知道,我如何管理我那由 50 個虛擬代理人組成的團隊,它們正在做各種事情?它們可能大部分時間都在做正確的事情,但偶爾它們需要諮詢,你知道,與我商量它們需要做出的某些選擇。呃,我需要給它們一些指導。呃,我如何管理,你知道,50 個虛擬實習生?這將會很複雜。

AI達到初級工程師水平的可能性

嗨,Jeff。謝謝你來到這裡。就在這裡。哦,抱歉。呃,我真的想不出世界上有誰比你更適合回答這個問題了。嗯,你認為我們距離擁有一個能以初級工程師水平 24/7 運作的 AI 還有多遠?

不遠了。

是的。是的。那是六個星期還是六年,或者每年一個 AI 看起來都像狗齡七歲之類的?我會說,那可能在未來一年左右實現。是的。

未來模型的架構:稀疏性與持續學習

嗨,你談到了擴展預訓練,現在又談到擴展強化學習。嗯,你如何看待這些模型未來的發展軌跡?會是,你知道,一個擁有所有運算能力的大型模型,還是由這些大型模型蒸餾出來的、並行工作的小型模型星座?你如何看待,嗯,你知道,未來的景觀?

是的,我的意思是,我一直非常喜歡那種稀疏的、在模型不同部分擁有不同專業知識的模型,因為,你知道,從我們微弱的生物學類比來看,這部分解釋了為什麼我們真實的大腦如此節能,你知道,我們大概只有 20 瓦的功率,卻能做很多事情,但是當我們在車裡擔心垃圾車倒車撞向我們時,我們寫莎士比亞詩歌的部分並未啟動。嗯,而且我覺得有,呃,我們透過專家混合(mixture of expert)風格的模型做到了一些這方面的事情。呃,你知道,我們在這個領域做了一些早期工作,我們當時有大約 2048 個專家,並且證明了它在效率上帶來了巨大的提升,呃,像是訓練觸及(training flop)的模型品質效率提高了 10 到 100 倍。

而且那非常重要。呃,但感覺我們還沒有真正完全探索這個空間,因為目前人們傾向於做的稀疏性是極其規律的。就像,感覺你希望模型中的某些路徑比其他路徑昂貴一百倍或一千倍。

而且你希望專家或模型的某些部分只需要極少量的計算,而另一些則需要非常大量的計算。也許它們應該有不同的結構。嗯,而且,呃,我認為你希望能用新的參數或新的空間位元來擴展你的模型。也許你希望能夠壓縮模型的某些部分,對這部分運行蒸餾過程,使其大小縮小四分之一。

然後你有一些背景的垃圾回收之類的東西,現在就像,「哦,太好了,我有更多記憶體可以使用了。」所以我要把那些參數或者那些,你知道,記憶體位元組放到別的地方,然後在別的地方更有效地利用它們。所以,對我來說,那看起來比我們今天擁有的系統更像一個有機的、持續學習的系統。

嗯,所以我,你知道,呃,唯一的問題是,我們今天正在做的事情非常有效。所以要完全改變你正在做的事情,變得更像那樣,就有點困難了。但我確實認為,用那種風格做事,而不是我們今天擁有的那種更嚴格定義的模型,會有巨大的好處。

我想再問一個問題,然後我們可能就要結束了。

實現初級工程師AI所需的進展

嘿,我想回到一年內成為初級工程師的話題。我很好奇你認為我們需要哪些進展才能達到那個目標?例如,顯然地,也許程式碼生成會變得更好,但是除了程式碼生成之外,呃,你認為還有什麼能讓我們達到那個目標?工具使用、有目標的規劃。

是的,我的意思是,我認為他們,呃,你知道,這個假設性的虛擬,呃,工程師可能需要對比僅僅在整合開發環境中編寫程式碼更多的事物有更好的理解。例如,它需要知道如何,像是運行測試,以及像是偵錯效能問題,以及所有那些事情。我們知道人類工程師是如何做這些事情的。他們學習如何使用我們擁有的各種工具,並且可以利用它們來完成任務。

而且他們,你知道,通常是從更有經驗的,呃,工程師那裡獲得那些智慧,嗯,或者閱讀大量文件。而且我覺得,你知道,初級虛擬工程師將會非常擅長閱讀文件,並且在虛擬環境中嘗試各種事情。所以那看起來是一種在這些事情上變得越來越好的方法。

呃,而且,你知道,我不知道這會帶我們走多遠,但看起來它會帶我們走很遠。

Jeff,謝謝你來分享你的智慧。謝謝。很高興見到你。