长兴郴障科技有限公司

澎湃Logo
下載客戶端

登錄

  • +1

追問|停止對ChatGPT的空洞唱和,不如反思人類社會的諸多設計

澎湃新聞記者 曹年潤
2023-02-13 08:26
來源:澎湃新聞
? 生命科學 >
字號

肖仰華表示,“從具體實現技術路線上來講,ChatGPT面向領域的優化路線已經十分清晰,不存在太大的障礙。只要將醫療數據與醫療知識庫準備好,進行體現領域特點的持續訓練,大模型很快就會學到更多醫療領域的專門知識。不過,領域數據如何有效治理、領域知識如何植入、領域大模型如何廉價訓練仍有較大研究空間。此外,醫療數據比較敏感,涉及用戶隱私,是個不可回避的問題。”

?這一次推出的是面向聊天任務的GPT,即Chat版本的GPT,將來可能會有很多其他任務形態的GPT,比如醫療場景中的診斷GPT。大模型作為機器醫生與人類交互,還需要解決與人類共情的難題。畢竟看病過程中,病人總是希望得到醫生心理上的安慰與同情。

?以ChatGPT為代表的大模型對人工智能核心競爭力的形成具有決定性作用。未來5年到10年,我們必須在戰略上充分重視大模型技術的發展,但是要注意保持冷靜心態,不要盲目樂觀。

ChatGPT,全名為“Chat Generative Pre-Trained Transformer”,其中,GPT(Generative Pre-training Transformer)譯成中文為“預訓練生成模型”,它是一款由美國人工智能研究機構OpenAI研發的對話式大型語言模型。

自2022年11月30日發布以來,至2023年1月末,ChatGPT的全球活躍用戶已達1億,成為史上用戶增長速度最快的消費級應用程序。

硅谷科技公司PerceptIn創始人劉少山在接受《中國新聞周刊》采訪時表示,ChatGPT有更好的語言理解能力,它可以更像一個通用的任務助理,能夠和不同行業結合,衍生出很多應用場景。

在醫療領域,已經有很多學者開始探索ChatGPT的邊界。ChatGPT還在一項研究中通過了美國執業醫師資格考試(USMLE)。還有學者利用ChatGPT進行心血管疾病、阿爾茲海默病等疾病的診療。

在醫療領域,ChatGPT究竟有多大的潛力,它還存在什么局限,將會有怎樣的升級?2月9日,澎湃科技連線復旦大學計算機科學技術學院肖仰華教授,和他聊了聊ChatGPT在醫療領域的可能性和存在的問題。

在肖仰華看來,單純從醫療領域來聊ChatGPT,是把主題聊“小”了,他認為,對ChatGPT的討論,格局可以更大。但肖仰華還是很耐心地回答了澎湃科技提出的問題。

肖仰華告訴澎湃科技,ChatGPT已經遠遠超出以前人工智能的水平,可能對行業產生深刻影響。目前在醫療領域,ChatGPT可以較好地完成助理類的工作,比如導診,輔助醫生自動生成病例或摘要,進行醫療健康咨詢等。“在很多方面,ChatGPT可以極大地提質提效。可以預見,醫生的時間和精力可以在ChatGPT類似產品的協助下得到極大解放。”肖仰華說。

目前來看,ChatGPT所生成的內容較為基礎、泛化,在提供專業的醫學服務上面臨挑戰。肖仰華表示,“從具體實現技術路線上來講,ChatGPT面向領域的優化路線已經十分清晰,不存在太大的障礙。只要將醫療數據與醫療知識庫準備好,進行體現領域特點的持續訓練,大模型很快就會學到更多醫療領域的專門知識。不過,領域數據如何有效治理、領域知識如何植入、領域大模型如何廉價訓練仍有較大研究空間。此外,醫療數據比較敏感,涉及用戶隱私,是個不可回避的問題。”

“在醫療領域應用ChatGPT需要慎重,醫療對信息準確性、安全性和用戶隱私、人文關懷、醫學倫理等要求比較高,學界和業界可能還要花一段時間去探索如何去規避道德與倫理風險,才有可能讓ChatGPT在醫療中發揮積極作用。”肖仰華說。

肖仰華還提醒道,ChantGPT最近在學術界帶來的樂觀多來自谷歌等學者在《Emergent Abilities of Large Language Models》(2022年6月)中的觀點,然而必須要謹慎論證大模型由于規模效應所帶來的涌現行為。涌現出了怎樣的智能?如何可信論證各種涌現?這里雖然采取了“智能涌現”的說法,但是大模型的涌現行為仍然需要深入細致的論證。“我在此提醒讀者 ,不要盲從。”

【對話】

ChatGPT可勝任助理類工作,應用于醫療需慎重

澎湃科技:ChatGPT在醫療領域可能有哪些應用?

肖仰華(復旦大學計算機科學技術學院教授):ChatGPT是一個面向自然語言問答的生成式大規模預訓練語言模型。從它的核心能力來講,它具備對文本的理解能力,也具備對用戶問題的理解能力,所以它可以提供比較精準的問答服務,同時還具有較為強大的文本生成能力。基于這些能力,它可以賦能多種多樣的應用場景,因此具有平臺化的能力和產業化的應用前景。這一次推出的是面向聊天任務的GPT,即Chat版本的GPT,將來可能會有很多其他任務形態的GPT,比如醫療場景中的診斷GPT。

很多年前產業界就設想過聊天助手的應用形式,但當時在技術上有很多瓶頸,到今天,ChatGPT的語言理解能力和交互能力顯著提升,可以更為流暢地、智能地完成很多助理類的工作。比如,我們到醫院的第一件事情是導診,根據你的癥狀和描述,ChatGPT可以知道你適合哪個科室。ChatGPT還可以成為醫學專家助理,幫助專家去找一些文獻,也可以根據病情以及問診記錄自動生成病例或摘要。慢病管理、醫療健康咨詢類的職業也有可能被ChatGPT之類的產品所取代,比如它通過問答形式回答用戶對于用藥限制、注意事項的問題。ChatGPT對藥品行業的智慧研發也有很大幫助,比如它可以跟蹤某種藥品在國外最近的專利,將某方面的科技情報形成一個概要描述。在這些方面,ChatGPT可以極大地提質提效。

隨著它的能力越來越強,我相信它未來也可能會具有超越助理類工作的能力,非專家水平的醫生,也就是普通醫生的工作,比如通過問答交互形式,完成常規疾病的診斷或醫療建議,對類似疾病過往案例的搜索與推薦,在大模型的加持下都將離落地應用越來越近,可以預見,醫生的時間和精力可以在ChatGPT類似產品的協助下得到極大的解放。從此意義來看,它對緩解優質醫療資源分布不平衡問題有著積極意義。

但是在醫療領域應用ChatGPT需要慎重,因為醫療對信息準確性、安全性和用戶隱私、人文關懷、醫學倫理等要求比較高,學界和業界可能還要花一段時間去探索如何去規避道德與倫理風險,才有可能讓ChatGPT在醫療中發揮積極作用。

澎湃科技:有很多人問ChatGPT各種各樣的醫學知識,它給的回答基本上是概要的基礎知識。

肖仰華:這涉及到ChatGPT技術的目標應用場景問題,我們需要考慮它是應用于通用領域還是特定垂直領域。ChatGPT的第一波應用場景是像微軟這樣的一些通用平臺,它提供的是Bing通用搜索,或者Office等通用辦公軟件,總體而言專業性不高。

在通用場景,ChatGPT的表現已經相當不錯,但是若將其應用在垂直領域,尤其是醫療這類對知識的專業性和深度要求比較高的領域,則需要進一步向ChatGPT注入醫療數據、領域知識乃至專家經驗,對ChatGPT進行針對性的訓練與優化。大家對當前版本的ChatGPT作了很多嘗試,發現它犯了很多事實錯誤與邏輯錯誤,比如它會認為人類有兩個心臟。其原因在于通用語料里,醫學類知識很少,它沒有看過,自然沒有機會接受醫療領域數據的專門訓練。其他領域應用也是同理。

從具體實現技術路線上來講,這種面向領域的優化路線已經十分清晰,不存在太大的障礙。只要將醫療數據與醫療知識庫準備好,進行體現領域特點的持續訓練,大模型很快就會學得更多醫療領域的專門知識。不過,領域數據如何有效治理、領域知識如何植入、領域大模型如何廉價訓練也仍有較大研究空間。此外,醫療數據比較敏感,涉及用戶隱私,是個不可回避的問題。

澎湃科技:提到醫療咨詢,我作為患者,最關心的是它是否真的靠譜。

肖仰華:這種擔憂不無道理。讓通用版的ChatGPT變成一個專業醫療版的ChatGPT,還是有不少問題要解決的。首先,就是剛才提到的醫療知識有限,仍需極大的注入領域知識的努力。過去十多年來,醫療領域已經建立了很多大規模的醫療、疾病、醫藥與健康知識庫,某種程度上,為今天向ChatGPT這樣的大模型灌注領域知識做好了充分準備。但是單單富有知識還不足以勝任為人類的醫生。

大模型本質上是一種統計模型。任何統計模型都有出錯的概率。但在醫療領域,即便是以極低概率犯了錯,也是難以接受的,一次重大醫療事故就足以毀掉病人的家庭和醫生的職業生涯。因此,仍需要發展大模型的兜底方案,特別是人機結合的綜合方案,在發揮大模型在自動化診斷方面的高效率的同時,由人類專家對于極低概率的錯誤進行審核與糾正。

另一種擔憂在于大模型的可解釋性。通常,病人看醫生不單單需要一個診斷結果,更需要對診斷的詳細解釋。作為統計模型的大模型擅長做出結果判斷,在過程解釋上仍然需要付諸較大努力。不過ChatGPT在思維鏈(Chain of thought)等技術的助力下,在結果解釋方面已經有了極大提升。

大模型作為機器醫生與人類交互,還需要解決與人類共情的難題。畢竟看病過程中,病人總是希望得到醫生心理上的安慰與同情。這些都是以ChatGPT為基礎的智能醫療應用場景需要深入考慮的問題。

澎湃科技:這樣看來,人類灌輸給它的知識很關鍵,這會不會導致公平性的問題?

肖仰華:大模型的公平性問題包含多個方面。首先是來自訓練數據分布不均所帶來的結果偏見問題。大模型的學習語料往往存在較為嚴重的分布偏差,比如近三年提到傳染病,一定就是新冠,但事實上傳染病絕不僅僅這一種,只不過由于近三年新冠暴發,絕大多數媒體數據提到的傳染病都是新冠。這樣一種具有“暴露偏差”的數據“喂”給大模型之后,會誤導大模型認為傳染病就是新冠,從而在被提問艾滋病之類的傳染病時,ChatGPT也會匹配到新冠相關的答案。

公眾所關心的公平性,往往涉及技術的民主性問題,也就是擁有技術的人群,因為能受益于 AI,比沒有技術能力人群,具有競爭優勢,從而導致機會不公,有失民主。某種意義上,能夠操控AI技術的人在淘汰不能操控AI技術的人,是一件已經在發生的事實,是個我們必須正視且盡快回應的問題。這是技術倫理研究者密切關注的問題,相信他們會在未來給出完美方案。

澎湃科技:發達地區在人才和技術上都更有優勢,可能也會輸入更多醫療數據,欠發達地區應用ChatGPT的時候,是不是就會缺少一些代表性?

肖仰華:是的。大模型建立的前提是數據,數據資源越豐富、數據分布越均衡、數據質量越精良,數據治理能力越強,大模型能力越出眾。某種意義上,大模型是機構乃至國家人工智能核心競爭力的集中體現,是檢驗其數據治理、模型研發、工程實現等能力的重要場景。這實際上跟一個國家和地區的信息化、數字化與人工智能技術發展水平密切有關。如果國家和地區都還沒有發展到相應的階段,甚至連必要的數據基礎都不具備,那么大模型就很難體現這個國家或地區的人群疾病的相關特點。

好在病理和藥理是整個人類適用的,大模型不會因為人群不同而習得不同的病理與藥理。但是對于健康管理與公共衛生等與生活環境密切相關的醫療問題而言,大模型因為地區發展水平差異而呈現出的能力差異,是無法回避的問題。我國總體而言,醫療數字化發展基礎較好,但是也要充分關注各地區間醫療數字化發展不平衡問題。

防止ChatGPT一本正經地胡說八道

澎湃科技:醫療行業在使用 ChatGPT的時候,有沒有一些需要注意的問題?

肖仰華:首先,需要持續關注ChatGPT在醫療領域的泛化能力。所謂泛化能力,是指統計模型不出現在訓練數據中的樣本上,仍然能夠做出準確預測的能力。通俗來說,就是舉一反三的能力。我們人類是智能的,集中的體現就是對少量樣本進行學習之后,我們能在未來未見過的類似樣本中做出準確判斷或者響應。

大模型本質是一個統計模型,它能在輸入和輸出之間建立起很強的統計關聯,它就是通過這種統計關聯來解決問題的。當你輸入一個問題,它看到這個問題中某些詞或者某些詞的語義,發現和它以前看過的文本中一些詞的統計關聯特別強,它就可以產生相應文本作為答案。那么這種能力能否持續遷移到沒見過的問題呢?往往會有困難。ChatGPT之所以能夠成功,一個重要原因就是其基礎模型GPT-3系列模型在精心與充分的訓練下,涌現出了高度泛化的語言理解能力。這種能力能否持續遷移到特定領域,如何在不遺忘通用語言的能力同時,合理適配醫療領域,仍然有待技術檢驗。

其次,要密切關注ChatGPT的事實錯誤、邏輯錯誤等問題。ChatGPT目前經常出的問題就是一本正經地胡說八道。比如問某個歷史人物的生辰信息,ChatGPT很難給出精準答案。在ChatGPT一本正經回復里,往往存在前后不一致的情況。作為一種神經模型,ChatGPT接受某個輸入問題時,所激發的神經網絡運算模式,非常接近人腦接受文字或語音輸入后大腦神經元的激活與放電模式。客觀評價,這是個了不起的進步。但是,人類智能的進化畢竟經歷了漫長的歲月洗禮。ChatGPT所激發的內容在精準度與邏輯合理性等方面仍有差距。事實上,人類慢條斯理的邏輯推理過程,如何通過神經網絡有效實現,仍然是個難題。

事實錯誤本質上歸結于知識缺失。前面已經談到,未來優化ChatGPT的重要思路之一就是知識植入,特別是領域(專業)知識,從而緩解事實錯誤。邏輯錯誤包括命題邏輯、數理邏輯、計算邏輯等錯誤。這里不一一展開。作為一個生成模型,如何能在統計生成過程中規避邏輯錯誤,仍然是個非常活躍的研究領域。總體而言,需要研究與發展模擬人類大腦雙系統認知結構的認知智能技術,才有可能緩解這一問題。這或許是ChatGPT的后來者能否居上的關鍵所在。

第三,它還存在跟人類價值觀對齊的問題。比如喝酒是否有益健康,不同的專家有不同的觀點,那么大模型到底是應該支持哪一派的觀點呢?再比如對于安樂死,ChatGPT應該持什么態度?在醫學倫理的一些邊緣和模糊的地帶,大模型應該和哪一種價值觀對齊,這是一個難以回避的問題。

第四,是用戶隱私的問題。ChatGPT需要從海量數據進行學習,其生成的內容可能來自于某一個人的隱私內容。在回答問題的過程中,有沒有可能暴露特定個人或人群的某些隱私,會暴露多少?是否存在著某些漏洞,使得通過特定的提示能夠誘導出敏感內容?對于這個問題,我們現在還不清楚。但是,就像當年的大數據應用無意中侵犯了人類隱私一樣,我們必須十分警惕大模型應用中侵犯人們的隱私,甚至暴露國家敏感信息。

最后,還要提一下大模型的遺忘能力問題。讓大模型記住一件事情是容易的,但是讓它忘記一件事情很困難。因為它的記憶是通過神經網絡的分布式存儲。某個事實一經存儲,就會分布式地嵌入它的“神經網絡”中,我們甚至難以追蹤相應的負責記憶該事實的神經元。所以某種程度上,大模型一旦訓練完成,消除特定事實就會相對困難。當然一種直接的方法是從語料中清除特定事實,但這種做法會帶來大模型高昂的訓練成本。

我們為什么讓大模型學會遺忘呢?因為人類社會總有些敏感的事實,只有徹底遺忘才能不犯禁忌,這是人類文化的一種典型現象。大模型要想為人類服務,遲早要學會這種能力。大模型的遺忘問題再進一步拓展,還涉及大模型的事實可控編輯問題、大模型的知識更新問題,已經屬于人工智能博士生需要研究的問題,再次不再贅述。

需要指出的是,ChatGPT的上述種種問題,并不妨礙其大規模商業應用。幾乎沒有哪種技術要等到100%完美才能大規模應用。事實上,很多產品在設計思路、工程中的人機結合方案,可以有效規避或者彌補上述問題。比如,可以對應用場景進行區分,在非嚴肅場景,自動生成偶爾犯錯的文本,再經人類修正,已經能極大提升人類工作效率。

技術突破路線與反思

澎湃科技:技術上可以怎么樣進行突破?

肖仰華:第一,應用絡線的融合。我估計ChatGPT在搜索引擎應用時,很快就會結合檢索模型。信息檢索技術仍是當前搜索引擎的核心,幫我們解決了從海量數據中精準檢索相關事實的問題。“老老實實”的檢索恰好可以彌補“隨性而為”的生成模型的缺陷,從而更好地為人類用戶服務。

第二,大模型的數據治理工作。不管是通用數據還是垂直領域的數據,其實大模型最終質量效果取決于“喂”進去的數據本身質量高不高,規模大不大。具體來說要做很多事,比如樣本糾偏、噪音清洗、價值對齊、多模融合、領域適配等等。

第三,大模型的可控編輯。我們能不能像操作一個數據庫一樣,讓它可以記住、刪除和更新特定事實?領域知識如何有效植入?都是需要進一步深入研究的問題。

還有一個很重要的問題是算力的問題,因為大模型成本特別高,如果把大模型往各行各業推廣的話,這會是一個很重要的瓶頸。不能每次跑一遍模型,都花幾百萬美金,沒有幾個機構能承受得起。如何實現廉價的大模型訓練與部署?也是個需要深入研究的問題。事實上,高質量數據、豐富知識以及精心設計的訓練任務很可能極大地降低大模型智能涌現的門檻,這是個極為重要研究思路。大模型的智能涌現十分接近宗教信仰中的頓悟與科學研究中的靈感,這兩類認知現象對于大模型的智能涌現現象研究或許有著極大的啟發意義。

澎湃科技:很多人和ChatGPT聊過天之后,覺得它沒有想象中那么智能,沒有連貫的語境,會犯事實性的錯誤,那為什么要這么關注它?

肖仰華:它現在是有一些弊端,但其實人也會犯錯誤。ChatGPT已經遠遠超出了以前的人工智能的水平。問答系統在前幾年就已經落地在很多產品中,比如國內廠商推出的帶問答功能的音響、玩具。但是,用戶很快就會發現,幾個回合的問答交互后,它們很容易就答不出來,或者答非所問,你就會覺得它是“人工智障”。比如你問劉德華生日,它回答香港,那么很多用戶就會果斷棄用。ChatGPT仍會犯事實性的錯誤,但是基本不會偏移提問的主題,“智障”感因此極大降低。

另一方面,ChatGPT經過人類專家的精心調教,掌握了人類常見問題的回答策略,其回答問題的策略與結構達到人類專家水平。比如,你問他人工智能是否會超越人類水平。它在回答是有結構的,會先給出結論,再逐條列出理由,這是專業水平的答題,我們很多學生回答問題都未必如此有條理。而且它具有一定的自知之明和一定的反思能力。如果它認為你提的問題不合理,它就拒絕回答,如果你說它錯了,它會反思自己哪里錯了。兩三年前,我在《機器能否認知世界》等報告中展望過,“問答系統要向具有人類高級認知水平的智能系統演進,要具備自知之明、要具備拒絕回答不合理問題的能力、要與人類價值觀對齊等”的目標,在當時被認為過于理想而不切實際,卻已經悄然在ChatGPT上實現。

最后, ChatGPT這類大模型作為人工智能基礎實施的效應十分顯著。也就是說,大模型有望像電網、電信網絡一樣,用戶或者終端一接入,即可享受智能。基礎設施十分容易形成壟斷地位。在人工智能產業化過程中,往往只有第一,沒有第二。從這些意義來看,以ChatGPT為代表的大模型對人工智能核心競爭力的形成具有決定性作用,對于人工智能產業形態的塑造具有重要作用。其所帶來一系列連鎖反應將逐步滲透到社會發展的各行各業。以ChatGPT為代表的具備智能涌現能力的大模型,是人工智能發展的一個重要里程碑,是信息技術變革人類社會的一個重大事件。

在即將結束時,我想補充一下我們應該保持一種怎樣的態度對待ChatGPT的發展?為什么要談這個問題,最近一兩個月的媒體,無異于發生了一場8級地震。企業家、專家、媒體、技術、資本、各行各業均對ChatGPT這一變革性技術從各種角度進行了解讀,可謂熱鬧非凡。我想借用比爾?蓋茨曾經說過的話回應這一問題:“我們總是高估短期的變化,卻低估中長期的變革。”

從短期看,也就是未來5年到10年,我們必須在戰略上充分重視大模型技術的發展,但是要注意保持冷靜心態,不要盲目樂觀。從事人工智能研究技術人員往往盲目樂觀,認為很快大模型能做很多事,甚至代替人類從事科學發現;與之形成鮮明對比,恰是不從事人工智能研究的外行的盲目悲觀,認為大模型很快就要取代他們的工作。這兩種心態有著本質上相同的原因。事實上,以大模型為代表的人工智能進展,很多時候不是在證明機器有多智能,而是在間接證明人類社會當前的很多行為設計有多愚蠢,比如教育中的各種考試、各種“復制+修改”就能勝任的文案工作。比如,最近很多機構利用ChatGPT先后在各種專業資格考試中獲得了通過,這誠然是技術進步的一種體現。受益于大模型的思維鏈等技術,大模型的推理能力得到極大提升,因而在考試這類需要一定推理能力的任務中取得進展。然而這種推理能力仍然十分有限的,至少離人類專家的直覺推理水平仍有遙遠距離。更為諷刺地是,這個進展證明我們的評測方式偏離了教育的初衷。“死記硬背+有限推理”,似乎就可以勝任當下大多數考試。與其贊嘆大模型的進展,不如更深刻地反思人類社會自身發展過程中的諸多問題。以創新為根本目的的教育,是當前這種評測方式真能準確評價的嗎?我們應該充分抓住人工智能發展契機,對人類社會的諸多設計進行深刻反思,促進教育等行業的高質量發展。

從長期來看,也就是未來20年,甚至50年,我們必須在戰略上警醒人工智能對于人類社會發展的影響,并對其開展細致的深入的研究,而不是在人工智能遭遇了人類的調戲后輕蔑地下一個“不過如此”的結論。人工智能發展已經不是第一次在挑戰人性的底線了。不管是人類的動物性與社會性,都在持續地被機器所模擬、所實現,從計算到游戲,從聽音識圖到能說會道,從寫詩到作畫。最近的認知智能研究,仍在持續將人類的高級認知能力,比如幽默認知、情感認知、社會認知賦予機器。那么到底什么是人性不容侵犯的領地呢?抑或真像某些哲學家認為的“人是機器”?宗教認為人類的本性是“自我超越”,然而,即便這個最根本特性似乎也會受到機器智能的挑戰。這些問題的深入討論,要比“機器是否消滅人類”的空洞唱和,有意義得多。

 

    責任編輯:宦艷紅
    圖片編輯:金潔
    校對:張艷
    澎湃新聞報料:021-962866
    澎湃新聞,未經授權不得轉載
    +1
    收藏
    我要舉報
            查看更多

            掃碼下載澎湃新聞客戶端

            滬ICP備14003370號

            滬公網安備31010602000299號

            互聯網新聞信息服務許可證:31120170006

            增值電信業務經營許可證:滬B2-2017116

            ? 2014-2025 上海東方報業有限公司

            反饋
            德州扑克女王| 百家乐技巧-澳门百家乐官方网址| 威尼斯人娱乐城代理申请| 百家乐官网群博乐吧blb8v| 大发888城亚洲游戏| 至尊百家乐官网赌场娱乐网规则 | 百家乐没边| 24山向阴阳图| 百家乐官网书籍| 威尼斯人娱乐城信誉| 网上百家乐真实度| 百家乐官网自动下注| 嘉义县| 六合彩摇奖结果| 威尼斯人娱乐城真人赌博| 杨公24山择日| 百家乐官网道具扫描| 苏州市| 大发888游戏场下载| 女优百家乐的玩法技巧和规则| 百家乐光纤洗牌机如何做弊| 百家乐投注规则| 百家乐官网电投网站| 金宝博网址| 百家乐PK| 百家乐官网楼梯缆 | 长江百家乐的玩法技巧和规则| 百家乐注册开户送彩金| 澳门网上| 澳门百家乐官方网站| 百家乐德州扑克发牌盒| 百家乐视频二人麻将| 百家乐官网小九梭哈| 百家乐官网视频游戏平台| 云顶国际娱乐| 澳门网上| 百家乐官网怎么样玩| 大发888娱乐真钱游戏 下载| 郑州水果机遥控器| 百家乐旺门打法| 百家乐游戏规测|