<p id="bffd9"><cite id="bffd9"></cite></p>

      <cite id="bffd9"><b id="bffd9"><thead id="bffd9"></thead></b></cite>
        <output id="bffd9"><cite id="bffd9"></cite></output>

              <p id="bffd9"></p>

                    <p id="bffd9"></p>
                    只發布交易干貨的網站
                    用實戰期貨交易系統和心得助你重塑交易認知

                    +1分期貨開戶,保證金無條件+1%

                    點擊查看最新手續費保證金一覽表

                    基年是什么意思?基是什么意思取名字

                    基年是什么意思呢?我們一起來看看吧。首先,我們要明白,這個“年”指的是農歷的一年,也就是365天中的第一天。所以,在農歷的每一天都是新的一天,這這樣一來,就不存在什么“過年”這個說法了。其次,我們要明白,古代的時分,人們的生存條件十分差,因此,許多人都沒有方法過上好日日子。所以,他們只能挑選在臘月二十三這天祭奠祖先,希望祖先能夠保佑自己,在新的一年里,能夠順順利利。

                    一:基是什么意思?

                    基,是線性代數的概念,就是一組基的線性搭配(加減,乘以一個實數)可以示意一個集合的所有元素。

                    比如:一個1*3的矢量集合,他的基有3個:(1,0,0),(0,1,0),(0,0,1)這三個基通過乘以實數和加減就可以搭配成為所有的(x,y,z)形式的矢量

                    二:基是什么意思網絡用語

                    【新智元導讀】圖靈獎得主Yann LeCun正式撰文回應老冤家Gary Marcus,示意「深度學習撞墻」這個說法,我不同意!

                    今天的主角,是一對AI界相愛相殺的老冤家:

                    Yann LeCun和Gary Marcus

                    在正式講述這一次的「新仇」之前,我們先往返顧一下,兩位大神的「舊恨」。

                    LeCun與Marcus之爭

                    Facebook首席人工智能科學家和紐約大學教授,2018年圖靈獎(Turing Award)得主楊立昆(Yann LeCun)在NOEMA雜志發表文章,回應此前Gary Marcus對AI與深度學習的評論。

                    此前,Marcus在雜志Nautilus中發文,稱深度學習已經「無法前進」

                    Marcus此人,屬于是看熱鬧的不嫌事大的主。

                    一有點風吹草動,就發言「AI已死」,掀起圈內軒然大波!

                    此前多次發文,稱GPT-3為「Nonsense」「bullshit」。

                    鐵證在此:

                    好家伙,竟說「深度學習撞墻了」,看到如此猖獗的評論,AI界的大牛LeCun可坐不住了,立馬發文回應!

                    并示意,你想對線我奉陪!

                    LeCun在文中把Marcus的觀點一一懟了個遍。

                    我們一起看一下大神是如何撰文回懟的吧~~

                    以下是LeCun的長文:

                    當代人工智能的主導技術是深度學習(DL)神經網絡(NN),這是一種大規模的自學習算法,擅長辨認和利用數據中的模式。從一開始,批判者們就過早地認為,神經網絡已經撞上了「一堵不可逾越的墻」,然而每一次,它都被證實是一個暫時的障礙。

                    在20世紀60年代,NN還不能解出非線性函數。但這種情景并沒有持續很長工夫,在20世紀80年代伴著反向傳播(Backpropagation)的出現得以改變,但是新的「不可逾越的墻」又出現了,即練習系統非常困難。

                    在20世紀90年代,人類有研究出了簡化程序和標準化架構,這使得練習更加可靠,但無論取得什么樣的成績,似乎永遠都會存在一堵「不可逾越的墻」,這一次是缺乏練習數據和計算的能力。

                    2012年,當最新的GPU可以在龐大的ImageNet數據集上進行練習時,深度學習開始成為主流,輕松地擊敗了所有競爭對手。但隨后,就出現了質疑的聲響:人們發現了「一堵新墻」——深度學習練習需要大量的手工標注的數據。

                    不過在過去的幾年里,這種質疑變得不再有意義,因為自監督學習已經取得了相稱不錯的效果,比如不需要標記數據的GPT-3。

                    現如今好像不可逾越的障礙是「符號推理」,即以代數或邏輯的方式操作符號的能力。正如我們小時分學到的,解決數學問題需要根據嚴格的規則一步一步地處理符號(例如,解方程)。

                    《The Algebraic Mind》的

                    這場爭論的核心是符號在人工智能中的作用,存在著兩種不同看法:一種認為符號推理必須從一開始就被硬編碼,而另一種則認為機器可以通過經驗學習到符號推理的能力。因此,問題的要害在于我們應當如何理解人類智能,從而,又應當如何追求能夠具有人類水平的人工智能。

                    不同類型的人工智能

                    符號推理最重要的是精確:根據排列搭配,符號可以有許多種不同的順序,比如「(3-2)-1和3-(2-1)」之間的差異很重要,所以如何以準確的順序執行準確的符號推理是至關重要的。

                    Marcus認為,這種推理是認知的核心,對于為語言提供潛在的語法邏輯和為數學提供基本操作至關重要。他認為這可以延伸到我們更基本的能力,在這些能力的背后,存在著一個潛在的符號邏輯。

                    而我們所熟知的人工智能,它就是從研究這種推理開始的,通常被稱為「符號人工智能」。但是將人類的專業知識提煉成一組規則是十分具有挑戰性的,會消耗巨大的工夫成本和人力成本。這就是所謂的「知識獲取瓶頸」。

                    雖然為數學或邏輯編寫規則很簡樸,但世界本身是非黑即白的、是十分模糊的,現實證實,人類不可能編寫出控制每個模式的規則或者為每一個模糊的概念定義符號。

                    但是,科技發展到現在,造就出了神經網絡,而神經網絡最擅長的地方就是發現模式并接受模糊性。

                    神經網絡是一個相對簡樸的方程,它學習一個函數,為輸入到系統的任何東西提供恰當的輸出。

                    例如,練習一個二分類網絡,通過將大量的樣本數據(此處拿椅子作為例子)放入神經網絡,對其進行若干個epoch的練習,最后完成讓該網絡勝利推斷出新圖片是否是椅子。

                    說白了,這不僅是單純的關乎人工智能的問題,更實質的是,到底什么是智能以及人類的大腦又是如何工作的問題。”

                    這些神經網絡可以精確練習,因為完成它的函數是可微的。換句話說,假如符號AI類似于符號邏輯中運用的離散token,那么神經網絡就是微積分的連續函數。

                    這答應通過微調參數來學習更好的示意,這意味著它可以更恰到好處的去擬合數據,而不出現欠擬合或者過擬合的問題。然而,當觸及到嚴格的規則和離散token時,這種流淌性帶來了新的「一堵墻」:當我們求解一個方程時,我們通常想要確切的答案,而不是近似的答案。

                    這正是Symbolic AI的亮點所在,所以Marcus建議將二者簡樸地結合起來:在DL模塊之上插入一個硬編碼的符號操作模塊。

                    這是很有吸引力的,因為這兩種辦法可以很好地互補,所以看起來,具有不同工作方式的模塊“混合”,將最大化兩種辦法的優勢。

                    但爭論的焦點轉向了是否需要將符號操作內置到系統中,在系統中,符號和操作能力是由人類設想的,而該模塊不可微的——因此與DL不兼容。

                    基年是什么意思?基是什么意思取名字

                    傳奇的「符號推理」

                    這個假設是十分有具爭議性的。

                    傳統的神經網絡認為,我們不需要手工進行符號推理,而是可以學習符號推理,即用符號的例子練習機器進行準確類型的推理,可以讓它學習抽象模式的實現。簡而言之,機器可以學習操作世界上的符號,盡管沒有內置的手工制作的符號和符號操作規則。

                    當代大型語言模型(如GPT-3和LaMDA)顯示了這種辦法的潛力。他們操縱符號的能力令人印嘆為觀止,這些模型表現出了驚人的常識推理、搭配能力、多語言能力、邏輯和數學能力,以至有模擬死者的可怕能力。

                    但其實這樣做并不可靠。假如你讓DALL-E制作一個羅馬雕塑,一個留著胡子、戴著眼鏡、穿著熱帶襯衫的哲學家,那它會很精彩。但是假如你讓它畫一只戴著粉色玩具的小獵犬,去追逐一只松鼠,有時你會得到一只戴著粉色小獵犬或松鼠。

                    當它可以將所有屬性分配給一個對象時,它做得很好,但當有多個對象和多個屬性時,它就會處于懵逼狀態。很多研究人員的態度是,這是DL在通往更像人類的智能道路上的「一堵墻」。

                    那么符號化操作到底是需要硬編碼?還是可學習的呢?

                    這并不是Marcus的理解。

                    他假設符號推理是全有或全無的——因為DALL-E沒有符號和邏輯規則作為其操作的基礎,它實際上不是用符號進行推理。因此,大型語言模型的無數次失利表明它們不是真正的推理,而只是沒有感情的機械模擬。

                    對Marcus來說,爬上一棵充足大的樹是不可能到達月球的。因此,他認為目前的DL語言模型并不比Nim Chimpsky(一只會運用美國手語的雄性黑猩猩)基更接近真正的語言。DALL-E的問題不是缺乏練習。它們只是系統沒有把握句子潛在的邏輯結構,因此不能準確地把握不同部分應當如何聯結成一個整體。

                    相比之下,Geoffrey Hinton等人認為神經網絡不需要硬編碼符號和代數推理既可以勝利地操縱符號。DL的目標不是機器內部的符號操作,而是學會從世界上的系統中產生準確的符號。

                    拒絕將兩種模式混合并非草率的,而是基于一個人是否認為符號推理可以學習的哲學性差異。

                    人類思想的底層邏輯

                    Marcus對DL的批評源于認知科學中的一場相關爭論,即智能是如何運作的,以及是什么讓人類舉世無雙。他的觀點與心理學中一個聞名的「本土主義」學派一致,該學派認為認知的很多要害特征是天生的——實際上,我們在很大程度上生來就明白世界是如何運轉的。

                    這種與生俱來的感知的核心是符號操作的能力(但是這畢竟是在整個天然中發現的,還是人類特有的,尚且沒有結論)。對Marcus來說,這種符號操作能力奠定了常識的很多基本特征:遵循規則、抽象、因果推理、重新辨認細節、泛化和很多其他能力。

                    簡而言之,我們對世界的許多理解都是天然賦予的,學習就是充實細節。

                    還有另一種經驗主義觀點打破了上述主意:符號操縱在天然界中是罕見的,主要是我們的古人類祖先在過去200萬年中逐漸獲得的一種學習交流能力。

                    從這個觀點來看,主要的認知能力是非符號學習能力,與提高生活能力有關,比如快速辨認獵物,猜測它們可能的行動,以及發展純熟的反應。

                    這一觀點認為,絕大多數復雜的認知能力都是通過一般的、自監督的學習能力獲得的。它還假設,我們的大部分復雜認知能力不會依靠于符號操作。相反,他們通過模仿各種場景并猜測最佳結果。

                    這種經驗主義的觀點認為符號和符號操縱只是另一種習得的能力,是伴著人類越來越依靠合作行為來獲得勝利而獲得的能力。這將符號視為我們用來協調團隊間合作的發明——比如文字,但也包括地圖、標志性描述、儀式以至社會角色。

                    這兩種觀點之間的差異十分明顯。對于本土主義傳統來說,符號和符號操縱原本就在頭腦中,對單詞和數字的運用也源自這種原始能力。這一觀點很有吸引力地解釋了那些源自進化順應的能力(盡管對符號操縱如何進化或為什么進化的解釋始終存在爭議)。

                    從經驗主義傳統角度看,符號和符號推理是一項有用的交流發明,它源于一般的學習能力和我們復雜的社會世界。這將內部計算和內心獨白等發生在我們頭腦中的象征性事物,視為源自于數學和語言運用的外部實踐。

                    人工智能和認知科學領域是緊密交織的,所以這些爭斗在這里重現也就不足為奇了。既然人工智能中任一觀點的勝利都將部分(但僅部分)證實認知科學中的一種或另一種辦法是準確的,那么這些辯論的激烈程度也就不足為奇了。

                    問題的要害不僅在于如何準確地解決當代人工智能領域的問題,還在于解決智能是什么以及大腦如何工作。

                    對AI,是押注,還是做空?

                    為什么「深度學習撞墻」的說法這樣具有挑釁性?

                    假如Marcus是對的,那深度學習將永遠無法完成與人類相似的AI,無論它提出了多少新的架構,也不管它投入了多少計算能力。

                    為神經網絡繼承添加更多的層只會讓人更加困惑,因為真正的符號操縱需要一個天生的符號操縱者。由于這種符號化操作是幾種常識能力的基礎,所以DL只會對任何東西都「不求甚解」。

                    相比之下,假如DL的提倡者和經驗主義者是準確的,那么令人困惑的是插入一個用于符號操縱的模塊的主意。

                    在這種情景下,深度學習系統已經在進行符號推理,并將繼承改進,因為它們通過更多的多模態自監督學習、越來越有用的猜測世界模型以及用于模仿和評估結果的工作內存的擴展來更好的滿意約束。

                    引入符號操作模塊不會創造出更像人類的AI,相反會迫使所有的「推理」操作通過一個不必要的瓶頸,這將使我們更加遠離「類人智能」。這可能會切斷深度學習最感動人心的一個方面:它能夠提出超過人類的完美解決方案。

                    話說回來,這些都不能證實那些愚蠢的炒作是準確的:由于當前的系統沒有意識,所以它們不能理解我們,強化學習是不夠的,你不能僅僅通過擴大規模來構建類人智能。但所有這些問題都是主要爭論的「擦邊問題」:符號操作到底是需要硬編碼?還是可學習?

                    這是在呼吁停止研究混合模型(即具有不可微符號操縱器的模型)嗎?當然不是。人們應當挑選有效的辦法。

                    但是,研究人員自20世紀80年代以來始終在研究混合模型,不過它們還沒有被證實是一種有效的方式,在很多情景下,有可能以至遠不如神經網絡。

                    更通俗地說,人們應當懷疑深度學習是否達到了上限。

                    參考資料:

                    https://##what-ai-can-tell-us-about-intelligence/

                    三:基是什么意思取名字

                    “基”有根基、基業的意思,泛指一切建筑物的根腳。開公司當然要有好的“根基”,才能發展壯大。

                    四:基是什么意思線性代數

                    r(a)示意的秩的數量,r(即row)示意矩陣或向量組的行數。立刻考試了吧!祝你好運

                    比如常常讓你求 一組向量(特別矩陣) 在某組基下的坐標。。



                    本文名稱:《基年是什么意思?基是什么意思取名字》
                    本文鏈接:http://www.bjhqmc.com/baike/254477.html
                    免責聲明:投資有風險!入市需謹慎!本站內容均由用戶自發貢獻,或整編自互聯網,或AI編輯完成,因此對于內容真實性不能作任何類型的保證!請自行判斷內容真假!但是如您發現有涉嫌:抄襲侵權、違法違規、疑似詐騙、虛假不良等內容,請通過底部“聯系&建議”通道,及時與本站聯系,本站始終秉持積極配合態度處理各類問題,因此在收到郵件后,必會刪除相應內容!另外,如需做其他配合工作,如:設置相關詞匯屏蔽等,均可配合完成,以防止后續出現此類內容。生活不易,還請手下留情!由衷希望大家能多多理解,在此先謝過大家了~

                    我要說說 搶沙發

                    評論前必須登錄!

                    立即登錄   注冊

                    切換注冊

                    登錄

                    忘記密碼 ?

                    切換登錄

                    注冊

                    我們將發送一封驗證郵件至你的郵箱, 請正確填寫以完成賬號注冊和激活

                      <p id="bffd9"><cite id="bffd9"></cite></p>

                        <cite id="bffd9"><b id="bffd9"><thead id="bffd9"></thead></b></cite>
                          <output id="bffd9"><cite id="bffd9"></cite></output>

                                <p id="bffd9"></p>

                                      <p id="bffd9"></p>
                                      成人电影