成人国产在线小视频_日韩寡妇人妻调教在线播放_色成人www永久在线观看_2018国产精品久久_亚洲欧美高清在线30p_亚洲少妇综合一区_黄色在线播放国产_亚洲另类技巧小说校园_国产主播xx日韩_a级毛片在线免费

資訊專欄INFORMATION COLUMN

GIL 已經(jīng)被殺死了么?

番茄西紅柿 / 1546人閱讀

摘要:酷睿代在年取代了奔騰,主頻遠低于此。該詞被敏捷開發(fā)團隊使用較多,含義與形式會略有不同,更改已經(jīng)開始將垃圾收集器的狀態(tài)轉(zhuǎn)到解釋器,因此每個子解釋器將擁有它自己的本該如此。結(jié)論死亡了嗎對于單線程的應(yīng)用程序,仍然存活。

本文原創(chuàng)并首發(fā)于公眾號【Python貓】,未經(jīng)授權(quán),請勿轉(zhuǎn)載。

原文地址:mp.weixin.qq.com/s/8KvQemz0S…

花下貓語: Python 中最廣為人詬病的一點,大概就是它的 GIL 了。由于 GIL 的存在,Python 無法實現(xiàn)真正的多線程編程,因此很多人都把這視作 Python 最大的軟肋。

PEP-554 提出后(2017年9月),大伙似乎看到了一線改善的曙光。然而,GIL 真的可以被徹底殺死么,如果可以的話,它會怎么實現(xiàn)呢,為什么等了一年多還沒實現(xiàn),仍需要我們等待多長時間呢?


英文 | Has the Python GIL been slain);

作者 | Anthony Shaw

譯者 | 豌豆花下貓

聲明 :本文獲得原作者授權(quán)翻譯,轉(zhuǎn)載請保留原文出處,請勿用于商業(yè)或非法用途。

2003 年初,Intel 公司推出了全新的奔騰 4 “HT” 處理器,該處理器的主頻(譯注:CPU 內(nèi)核工作的時鐘頻率)為 3 GHz,采用了“超線程”技術(shù)。

在接下來的幾年中,Intel 和 AMD 激烈競爭,通過提高總線速度、L2 緩存大小和減小芯片尺寸以最大限度地減少延遲,努力地實現(xiàn)最佳的臺式機性能。3Ghz 的 HT 在 2004 年被“Prescott”的 580 型號取代,該型號的主頻高達 4 GHz。

似乎提升性能的最好方法就是提高處理器的主頻,但 CPU 卻受到高功耗和散熱會影響全球變暖的困擾。

你電腦上有 4Ghz 的 CPU 嗎?不太可能,因為性能的前進方式是更高的總線速度和更多的內(nèi)核。Intel 酷睿 2 代在 2006 年取代了奔騰 4 ,主頻遠低于此。

除了發(fā)布消費級的多核 CPU,2006 年還發(fā)生了其它事情,Python 2.5 發(fā)布了!Python 2.5 帶來了人見人愛的 with 語句的 beta 版本 。

在使用 Intel 的酷睿 2 或 AMD 的 Athlon X2 時,Python 2.5 有一個重要的限制——GIL 。

什么是 GIL?

GIL 即全局解釋器鎖(Global Interpreter Lock),是 Python 解釋器中的一個布爾值,受到互斥保護。這個鎖被 CPython 中的核心字節(jié)碼用來評估循環(huán),并調(diào)節(jié)用來執(zhí)行語句的當(dāng)前線程。

CPython 支持在單個解釋器中使用多線程,但線程們必須獲得 GIL 的使用權(quán)才能執(zhí)行操作碼(做低級操作)。這樣做的好處是,Python 開發(fā)人員在編寫異步代碼或多線程代碼時,完全不必操心如何獲取變量上的鎖,也不需擔(dān)心進程因為死鎖而崩潰。

GIL 使 Python 中的多線程編程變得簡單。

GIL 還意味著雖然 CPython 可以是多線程的,但在任何給定的時間里只能執(zhí)行 1 個線程。這意味著你的四核 CPU 會像上圖一樣工作 (減去藍屏,但愿如此)。

當(dāng)前版本的 GIL 是在2009年編寫的 【2】,用于支持異步功能,幾乎沒被改動地存活了下來,即使曾經(jīng)多次試圖刪除它或減少對它的依賴。

所有提議移除 GIL 的訴求是,它不應(yīng)該降低單線程代碼的性能。任何曾在 2003 年啟用超線程(Hyper-Threading)的人都會明白為什么 這很重要 【3】。

在 CPython 中避免使用 GIL

如果你想在 CPython 中使用真正的并發(fā)代碼,則必須使用多進程。

在 CPython 2.6 中,標(biāo)準(zhǔn)庫里增加了 multiprocessing 模塊。multiprocessing 是 CPython 大量產(chǎn)生的進程的包裝器(每個進程都有自己的GIL)——

from multiprocessing import Process

def f(name):
    print hello, name

if __name__ == __main__:
    p = Process(target=f, args=(bob,))
    p.start()
    p.join()

進程可以從主進程中“孵出”,通過編譯好的 Python 模塊或函數(shù)發(fā)送命令,然后重新納入主進程。

multiprocessing 模塊還支持通過隊列或管道共享變量。它有一個 Lock 對象,用于鎖定主進程中的對象,以便其它進程能夠?qū)懭搿?/p>

多進程有一個主要的缺陷:它在時間和內(nèi)存使用方面的開銷很大。CPython 的啟動時間,即使沒有非站點(no-site),也是 100-200ms(參見 這個鏈接 【4】)。

因此,你可以在 CPython 中使用并發(fā)代碼,但是你必須仔細規(guī)劃那些長時間運行的進程,這些進程之間極少共享對象。

另一種替代方案是使用像 Twisted 這樣的三方庫。

PEP-554 與 GIL 的死亡?

小結(jié)一下,CPython 中使用多線程很容易,但它并不是真正的并發(fā),多進程雖然是并發(fā)的,但開銷卻極大。

有沒有更好的方案呢?

繞過 GIL 的線索就在其名稱中,全局 解釋器 鎖是全局解釋器狀態(tài)的一部分。 CPython 的進程可以有多個解釋器,因此可以有多個鎖,但是此功能很少使用,因為它只通過 C-API 公開。

在為 CPython 3.8 提出的特性中有個 PEP-554,提議實現(xiàn)子解釋器(sub-interpreter),以及在標(biāo)準(zhǔn)庫中提供一個新的帶有 API 的 interpreters 模塊。

這樣就可以在 Python 的單個進程中創(chuàng)建出多個解釋器。Python 3.8 的另一個改動是解釋器都將擁有多帶帶的 GIL ——

因為解釋器的狀態(tài)包含內(nèi)存分配競技場(memory allocation arena),即所有指向 Python 對象(局地和全局)的指針的集合,所以 PEP-554 中的子解釋器無法訪問其它解釋器的全局變量。

與多進程類似,在解釋器之間共享對象的方法是采用 IPC 的某種形式(網(wǎng)絡(luò)、磁盤或共享內(nèi)存)來做序列化。在 Python 中有許多方法可以序列化對象,例如 marshal 模塊、 pickle 模塊、以及像 jsonsimplexml 這樣更標(biāo)準(zhǔn)化的方法 。這些方法褒貶不一,但無一例外會造成額外的開銷。

最佳方案是開辟一塊共享的可變的內(nèi)存空間,由主進程來控制。這樣的話,對象可以從主解釋器發(fā)送,并由其它解釋器接收。這將是 PyObject 指針的內(nèi)存管理空間,每個解釋器都可以訪問它,同時由主進程擁有對鎖的控制權(quán)。

這樣的 API 仍在制定中,但它可能如下所示:

import _xxsubinterpreters as interpreters
import threading
import textwrap as tw
import marshal

# Create a sub-interpreter
interpid = interpreters.create()

# If you had a function that generated some data
arry = list(range(0,100))

# Create a channel
channel_id = interpreters.channel_create()

# Pre-populate the interpreter with a module
interpreters.run_string(interpid, "import marshal; import _xxsubinterpreters as interpreters")

# Define a
def run(interpid, channel_id):
    interpreters.run_string(interpid,
                            tw.dedent("""
        arry_raw = interpreters.channel_recv(channel_id)
        arry = marshal.loads(arry_raw)
        result = [1,2,3,4,5] # where you would do some calculating
        result_raw = marshal.dumps(result)
        interpreters.channel_send(channel_id, result_raw)
        """),
               shared=dict(
                   channel_id=channel_id
               ),
               )

inp = marshal.dumps(arry)
interpreters.channel_send(channel_id, inp)

# Run inside a thread
t = threading.Thread(target=run, args=(interpid, channel_id))
t.start()

# Sub interpreter will process. Feel free to do anything else now.
output = interpreters.channel_recv(channel_id)
interpreters.channel_release(channel_id)
output_arry = marshal.loads(output)

print(output_arry)

此示例使用了 numpy ,并通過使用 marshal 模塊對其進行序列化來在通道上發(fā)送 numpy 數(shù)組 ,然后由子解釋器來處理數(shù)據(jù)(在多帶帶的 GIL 上),因此這會是一個計算密集型(CPU-bound)的并發(fā)問題,適合用子解釋器來處理。

這看起來效率低下

marshal 模塊相當(dāng)快,但仍不如直接從內(nèi)存中共享對象那樣快。

PEP-574 提出了一種新的 pickle 【5】協(xié)議(v5),它支持將內(nèi)存緩沖區(qū)與 pickle 流的其余部分分開處理。對于大型數(shù)據(jù)對象,將它們一次性序列化,再由子解釋器反序列化,這會增加很多開銷。

新的 API 可以( 假想 ,并沒有合入)像這樣提供接口:

import _xxsubinterpreters as interpreters
import threading
import textwrap as tw
import pickle

# Create a sub-interpreter
interpid = interpreters.create()

# If you had a function that generated a numpy array
arry = [5,4,3,2,1]

# Create a channel
channel_id = interpreters.channel_create()

# Pre-populate the interpreter with a module
interpreters.run_string(interpid, "import pickle; import _xxsubinterpreters as interpreters")

buffers=[]

# Define a
def run(interpid, channel_id):
    interpreters.run_string(interpid,
                            tw.dedent("""
        arry_raw = interpreters.channel_recv(channel_id)
        arry = pickle.loads(arry_raw)
        print(f"Got: {arry}")
        result = arry[::-1]
        result_raw = pickle.dumps(result, protocol=5)
        interpreters.channel_send(channel_id, result_raw)
        """),
                            shared=dict(
                                channel_id=channel_id,
                            ),
                            )

input = pickle.dumps(arry, protocol=5, buffer_callback=buffers.append)
interpreters.channel_send(channel_id, input)

# Run inside a thread
t = threading.Thread(target=run, args=(interpid, channel_id))
t.start()

# Sub interpreter will process. Feel free to do anything else now.
output = interpreters.channel_recv(channel_id)
interpreters.channel_release(channel_id)
output_arry = pickle.loads(output)

print(f"Got back: {output_arry}")
這看起來像極了很多樣板

確實,這個例子使用的是低級的子解釋器 API。如果你使用了多進程庫,你將會發(fā)現(xiàn)一些問題。它不像 threading 那么簡單,你不能想著在不同的解釋器中使用同一串輸入來運行同一個函數(shù)(目前還不行)。

一旦合入了這個 PEP,我認(rèn)為 PyPi 中的其它一些 API 也會采用它。

子解釋器需要多少開銷?

簡版回答 :大于一個線程,少于一個進程。

詳版回答 :解釋器有自己的狀態(tài),因此雖然 PEP-554 可以使創(chuàng)建子解釋器變得方便,但它還需要克隆并初始化以下內(nèi)容:

main 命名空間與 importlib 中的模塊

sys 字典的內(nèi)容

內(nèi)置的方法(print、assert等等)

線程

核心配置

核心配置可以很容易地從內(nèi)存克隆,但導(dǎo)入的模塊并不那么簡單。在 Python 中導(dǎo)入模塊的速度很慢,因此,如果每次創(chuàng)建子解釋器都意味著要將模塊導(dǎo)入另一個命名空間,那么收益就會減少。

那么 asyncio 呢?

標(biāo)準(zhǔn)庫中 asyncio 事件循環(huán)的當(dāng)前實現(xiàn)是創(chuàng)建需要求值的幀(frame),但在主解釋器中共享狀態(tài)(因此共享 GIL)。

在 PEP-554 被合入后,很可能是在 Python 3.9,事件循環(huán)的替代實現(xiàn) 可能 是這樣(盡管還沒有人這樣干):在子解釋器內(nèi)運行 async 方法,因此會是并發(fā)的。

聽起來不錯,發(fā)貨吧!

額,還不可以。

因為 CPython 已經(jīng)使用單解釋器的實現(xiàn)方案很長時間了,所以代碼庫的許多地方都在使用“運行時狀態(tài)”(Runtime State)而不是“解釋器狀態(tài)”(Interpreter State),所以假如要將當(dāng)前的 PEP-554 合入的話,將會導(dǎo)致很多問題。

例如,垃圾收集器(在 3.7 版本前)的狀態(tài)就屬于運行時。

PyCon sprint 期間(譯注:PyCon 是由 Python 社區(qū)舉辦的大型活動,作者指的是官方剛在美國舉辦的這場,時間是2019年5月1日至5月9日。sprint 是為期 1-4 天的活動,開發(fā)者們自愿加入某個項目,進行“沖刺”開發(fā)。該詞被敏捷開發(fā)團隊使用較多,含義與形式會略有不同),更改已經(jīng)開始 【6】將垃圾收集器的狀態(tài)轉(zhuǎn)到解釋器,因此每個子解釋器將擁有它自己的 GC(本該如此)。

另一個問題是在 CPython 代碼庫和許多 C 擴展中仍殘存著一些“全局”變量。因此,當(dāng)人們突然開始正確地編寫并發(fā)代碼時,我們可能會遭遇到一些問題。

還有一個問題是文件句柄屬于進程,因此當(dāng)你在一個解釋器中讀寫一個文件時,子解釋器將無法訪問該文件(不對 CPython 作進一步更改的話)。

簡而言之,還有許多其它事情需要解決。

結(jié)論:GIL 死亡了嗎?

對于單線程的應(yīng)用程序,GIL 仍然存活。因此,即便是合并了 PEP-554,如果你有單線程的代碼,它也不會突然變成并發(fā)的。

如果你想在 Python 3.8 中使用并發(fā)代碼,那么你就會遇到計算密集型的并發(fā)問題,那么這可能是張入場券!

什么時候?

Pickle v5 和用于多進程的共享內(nèi)存可能是在 Python 3.8(2019 年 10 月)實現(xiàn),子解釋器將介于 3.8 和 3.9 之間。

如果你現(xiàn)在想要使用我的示例,我已經(jīng)構(gòu)建了一個分支,其中包含所有 必要的代碼 【7】

References

[1] Has the Python GIL been slain);

公眾號【Python貓】, 本號連載優(yōu)質(zhì)的系列文章,有喵星哲學(xué)貓系列、Python進階系列、好書推薦系列、技術(shù)寫作、優(yōu)質(zhì)英文推薦與翻譯等等,歡迎關(guān)注哦。后臺回復(fù)“愛學(xué)習(xí)”,免費獲得一份學(xué)習(xí)大禮包。

文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。

轉(zhuǎn)載請注明本文地址:http://systransis.cn/yun/7134.html

相關(guān)文章

  • GIL 已經(jīng)殺死了么

    摘要:酷睿代在年取代了奔騰,主頻遠低于此。該詞被敏捷開發(fā)團隊使用較多,含義與形式會略有不同,更改已經(jīng)開始將垃圾收集器的狀態(tài)轉(zhuǎn)到解釋器,因此每個子解釋器將擁有它自己的本該如此。結(jié)論死亡了嗎對于單線程的應(yīng)用程序,仍然存活。showImg(https://user-gold-cdn.xitu.io/2019/5/19/16ad09f554fdf443); 本文原創(chuàng)并首發(fā)于公眾號【Python貓】,未經(jīng)授...

    pkwenda 評論0 收藏0
  • GIL 已經(jīng)殺死了么

    摘要:酷睿代在年取代了奔騰,主頻遠低于此。該詞被敏捷開發(fā)團隊使用較多,含義與形式會略有不同,更改已經(jīng)開始將垃圾收集器的狀態(tài)轉(zhuǎn)到解釋器,因此每個子解釋器將擁有它自己的本該如此。結(jié)論死亡了嗎對于單線程的應(yīng)用程序,仍然存活。 showImg(https://segmentfault.com/img/remote/1460000019229774); 本文原創(chuàng)并首發(fā)于公眾號【Python貓】,未經(jīng)授...

    xietao3 評論0 收藏0
  • 聊聊 Python 的內(nèi)置電池

    摘要:二這些內(nèi)容都很有意思,本文唯獨想聊聊它內(nèi)置電池。這樣做的預(yù)期效果是內(nèi)置電池會變得輕量小型化高質(zhì)量,同時三方庫的生態(tài)系統(tǒng)也能得到進化。目前,該仍處于草案狀態(tài),但已基本成為社區(qū)共識。 showImg(https://segmentfault.com/img/remote/1460000019489233?w=1880&h=1253); 本文原創(chuàng)并首發(fā)于公眾號【Python貓】,未經(jīng)授權(quán),請...

    FreeZinG 評論0 收藏0
  • 聊聊 Python 的內(nèi)置電池

    摘要:二這些內(nèi)容都很有意思,本文唯獨想聊聊它內(nèi)置電池。這樣做的預(yù)期效果是內(nèi)置電池會變得輕量小型化高質(zhì)量,同時三方庫的生態(tài)系統(tǒng)也能得到進化。目前,該仍處于草案狀態(tài),但已基本成為社區(qū)共識。 showImg(https://segmentfault.com/img/remote/1460000019489233?w=1880&h=1253); 本文原創(chuàng)并首發(fā)于公眾號【Python貓】,未經(jīng)授權(quán),請...

    wapeyang 評論0 收藏0

發(fā)表評論

0條評論

最新活動
閱讀需要支付1元查看
<