如何修復使用 Python ORM 工具 SQLAlchemy 時的常見陷阱
對象關係映射 (ORM)使應用程序開發人員的工作更輕鬆,在很大程度是因為它允許你使用你可能知道的語言(例如 Python)與資料庫交互,而不是使用原始 SQL 語句查詢。SQLAlchemy 是一個 Python ORM 工具包,它提供使用 Python 訪問 SQL 資料庫的功能。它是一個成熟的 ORM 工具,增加了模型關係、強大的查詢構造範式、簡單的序列化等優點。然而,它的易用性使得人們很容易忘記其背後發生了什麼。使用 SQLAlchemy 時做出的看似很小的選擇可能產生非常大的性能影響。
本文解釋了開發人員在使用 SQLAlchemy 時遇到的一些最重要的性能問題,以及如何解決這些問題。
只需要計數但檢索整個結果集
有時開發人員只需要一個結果計數,但是沒有使用資料庫計數功能,而是獲取了所有結果,然後使用 Python 中的 len
完成計數。
count = len(User.query.filter_by(acct_active=True).all())
相反,使用 SQLAlchemy 的 count
方法將在伺服器端執行計數,從而減少發送到客戶端的數據。在前面的例子中調用 all()
也會導致模型對象的實例化,如果有很多數據,那麼時間代價可能會非常昂貴。
除非還需要做其他的事情,否則只需使用 count
方法:
count = User.query.filter_by(acct_active=True).count()
只需要幾列時檢索整個模型
在許多情況下,發出查詢時只需要幾列數據。SQLAlchemy 可以只獲取你想要的列,而不是返回整個模型實例。這不僅減少了發送的數據量,還避免了實例化整個對象。使用列數據的元組而不是模型可以快得多。
result = User.query.all()
for user in result:
print(user.name, user.email)
反之,使用 with_entities
方法只選擇所需要的內容:
result = User.query.with_entities(User.name, User.email).all()
for (username, email) in result:
print(username, email)
每次循環都更新一個對象
避免使用循環來單獨更新集合。雖然資料庫可以非常快地執行單個更新,但應用程序和資料庫伺服器之間的往返時間將快速累加。通常,在合理的情況下爭取更少的查詢。
for user in users_to_update:
user.acct_active = True
db.session.add(user)
改用批量更新方法:
query = User.query.filter(user.id.in_([user.id for user in users_to_update]))
query.update({"acct_active": True}, synchronize_session=False)
觸發級聯刪除
ORM 允許在模型關係上進行簡單的配置,但是有一些微妙的行為可能會令人吃驚。大多數資料庫通過外鍵和各種級聯選項維護關係完整性。SQLAlchemy 允許你使用外鍵和級聯選項定義模型,但是 ORM 具有自己的級聯邏輯,可以取代資料庫。
考慮以下模型:
class Artist(Base):
__tablename__ = "artist"
id = Column(Integer, primary_key=True)
songs = relationship("Song", cascade="all, delete")
class Song(Base):
__tablename__ = "song"
id = Column(Integer, primary_key=True)
artist_id = Column(Integer, ForeignKey("artist.id", ondelete="CASCADE"))
刪除歌手將導致 ORM 在 song
表上發出 delete
查詢,從而防止由於外鍵導致的刪除操作。這種行為可能會成為複雜關係和大量記錄的瓶頸。
請包含 passive_deletes
選項,以確保讓資料庫來管理關係。但是,請確保你的資料庫具有此功能。例如,SQLite 默認情況下不管理外鍵。
songs = relationship("Song", cascade all, delete", passive_deletes=True)
當要使用貪婪載入時,應使用延遲載入
延遲載入是 SQLAlchemy 處理關係的默認方法。從上一個例子構建來看,載入一個歌手時不會同時載入他或她的歌曲。這通常是一個好主意,但是如果總是需要載入某些關係,單獨的查詢可能會造成浪費。
如果允許以延遲方式載入關係,像 Marshmallow 這樣流行的序列化框架可以觸發級聯查詢。
有幾種方法可以控制此行為。最簡單的方法是通過 relationship 函數本身。
songs = relationship("Song", lazy="joined", cascade="all, delete")
這將導致一個左連接被添加到任何歌手的查詢中,因此,songs
集合將立即可用。儘管有更多數據返回給客戶端,但往返次數可能會少得多。
SQLAlchemy 為無法採用這種綜合方法的情況提供了更細粒度的控制,可以使用 joinedload()
函數在每個查詢的基礎上切換連接的載入。
from sqlalchemy.orm import joinedload
artists = Artist.query.options(joinedload(Artist.songs))
print(artists.songs) # Does not incur a roundtrip to load
使用 ORM 進行批量記錄導入
導入成千上萬條記錄時,構建完整模型實例的開銷會成為主要瓶頸。想像一下,從一個文件中載入數千首歌曲記錄,其中每首歌曲都先被轉換為字典。
for song in songs:
db.session.add(Song(`song))
相反,繞過 ORM,只使用核心的 SQLAlchemy 參數綁定功能。
batch = []
insert_stmt = Song.__table__.insert()
for song in songs:
if len(batch) > 1000:
db.session.execute(insert_stmt, batch)
batch.clear()
batch.append(song)
if batch:
db.session.execute(insert_stmt, batch)
請記住,此方法會自然而然地跳過你可能依賴的任何客戶端 ORM 邏輯,例如基於 Python 的列默認值。儘管此方法比將對象載入為完整的模型實例要快,但是你的資料庫可能具有更快的批量載入方法。例如,PostgreSQL 的 COPY
命令為載入大量記錄提供了最佳性能。
過早調用提交或刷新
在很多情況下,你需要將子記錄與其父記錄相關聯,反之亦然。一種顯然的方法是刷新會話,以便為有問題的記錄分配一個 ID。
artist = Artist(name="Bob Dylan")
song = Song(title="Mr. Tambourine Man")
db.session.add(artist)
db.session.flush()
song.artist_id = artist.id
對於每個請求,多次提交或刷新通常是不必要的,也是不可取的。資料庫刷新涉及強制在資料庫伺服器上進行磁碟寫入,在大多數情況下,客戶端將阻塞,直到伺服器確認已寫入數據為止。
SQLAlchemy 可以在幕後跟蹤關係和管理相關鍵。
artist = Artist(name="Bob Dylan")
song = Song(title="Mr. Tambourine Man")
artist.songs.append(song)
總結
我希望這一系列常見的陷阱可以幫助你避免這些問題,並使你的應用平穩運行。通常,在診斷性能問題時,測量是關鍵。大多數資料庫都提供性能診斷功能,可以幫助你定位問題,例如 PostgreSQL 的 pg_stat_statements
模塊。
via: https://opensource.com/article/19/9/common-pitfalls-python
作者:Zach Todd 選題:lujun9972 譯者:MjSeven 校對:wxy
本文轉載來自 Linux 中國: https://github.com/Linux-CN/archive