这不是我第一次使用大型数据集。我为最大的英国公共Wi-Fi供应商设计的认证和产品管理数据库也有巨大的容量。我们每天跟踪数百万设备的身份认证。然而,该项目有资金,允许我们选择任何硬件、任何支持服务以及聘请任何数据库管理员来协助复制/数据仓库/故障排除。此外,所有分析查询/报告都是在逻辑副本之外完成的,还有多个系统管理员来负责支持基础设施。但是,这次是我自己的投资,资金有限而容量却有20倍之多。
\n别人的错误
\n这不是说,如果我们有大量资金,那么我们可以用于购买最先进的硬件、最炫的监控系统或数据库管理员(好吧,也许有个专门的数据库管理员就好了)。经过多年的咨询工作,我形成了一种观点,所有不好的根源都在于不必要的复杂数据处理管道。不需要ETL消息队列并且也不需要数据库查询的应用程序层缓存。通常,这些都是底层数据库问题(如:延迟、糟糕的索引策略)的解决方案,这些问题导致了更多问题。在理想场景中,我们希望在单个数据库中包含所有的数据,并且所有数据下载操作抽象为原子事务。我的目标是不再犯这些错误。
\n我们的目标
\n正如你已经猜到的,我们的PostgreSQL数据库成为了业务的核心部分(也称为“母亲”,尽管我的联合创始人坚持,我称不同的基础设施组件为“母亲”、“母舰”、“祖国”令人担忧)。我们没有独立的消息队列服务,缓存服务或用于数据仓库的副本。我没有维护支持的基础设施,而是致力于通过最大限度地减少延迟、提供最合适的硬件以及谨慎地规划数据库模式来消除瓶颈。我们所拥有的是易于扩展的基础设施,具有单个数据库和很多数据处理代理。我喜欢它的简单,如果什么东西坏了,我们可以马上知道,并在几分钟内修复问题。然而,在这个过程中,我们犯了很多错,本文将对其中一些问题做个总结。
\n数据集
\n在深入研究前,让我们快速总结一下数据集。
\n我是Applaudience公司的联合创始人。我们汇总电影院数据。我们主要的数据集包括电影放映时间、票价和入场情况。我们把这些数据和各种类型的支持数据(包括我们收集自YouTube、推特和天气预报的数据)组合起来。最终结果是一个全面的时间序列数据集,描述了整个影院电影发行窗口。目标是预测电影未来的表现。
\n目前,我们跟踪遍及欧洲和美国的22个国家及地区的3200多个电影院的数据。每天大约有47000场电影。每当有人从这些电影院预定或购买电影票,我们都会捕捉一个快照以描述电影放映厅中各个座位的属性。
\n \n我们如何监控数据聚合和检测异常是另一个话题。无论如何,把PostgreSQL作为所有正在聚合数据以及聚合数据的所有进程的单一真实来源使之变得更容易。
\n每月累计达12亿条记录,而且这还仅仅是入场数据。
\n选择在何处托管数据库
\n我们尝试了几个供应商:
\n1.谷歌
\n2.亚马逊
\n3.Aiven.io
\n4.自托管
支持PostgreSQL的谷歌云SQL
\n我们从谷歌获得了10万美元的启动资金。这是选择他们服务的主要决定因素。我们使用支持PostgreSQL的谷歌云大约有6个月。我们把PostgreSQL从谷歌云SQL迁走的主要原因是我们发现了一个导致数据损坏的错误。这是一个已知错误,在较新的PostgreSQL版本中已被修复。但是,支持PostgreSQL的谷歌云SQL的版本落后了好几个版本。承认知道该问题的部门缺乏响应提醒了我们需要向前走了。我很高兴我们向前走了,因为我们提出这个问题已经8个月了,但PostgreSQL的版本还是没有更新:
\n\n\npostgres=\u0026gt; SELECT version();
\n
\nPostgreSQL 9.6.6 on x86_64-pc-linux-gnu, compiled by gcc (Ubuntu 4.8.4-2ubuntu1~14.04.3) 4.8.4, 64-bit(1 row)
支持PostgreSQL的亚马逊RDS
\n然后,我们从亚马逊获得了资金并迁移到支持PostgreSQL的亚马逊RDS,他们的PostgreSQL的版本是最新的,并且我对RDS社区的研究表明没有问题。但是,亚马逊RDS支持PostgreSQL,但不支持TimescaleDB的扩展,而我们计划用它来对我们的数据库进行分区。随着亚马逊发布Timestream(他们自己的时间序列数据库),因此,很显然,这个要求在可以预见的未来不会得到解决(该问题已经提出2年了)。
\nAiven.io
\n接着,我们迁移到Aiven.io。Avien.io在我们选择的云服务供应商上为我们管理PostgreSQL数据库。其拥有所有我需要的扩展(包括TimescaleDB),没有把我们锁定在特定的服务供应商上(这意味着,我们可以把我们的Kubernetes集群托管在Aiven.io支持的任何供应商那里),他们的支持从第一次互动开始就很有帮助,并且我的尽职调查得到的都是赞扬。但是,我忽略的是,我们无法得到超级用户访问权限。这导致了很多问题(如:我们一直在用的各种维护程序停止工作,而我们因为权限的问题无法使用我们的监控软件;无法使用auto_explain;逻辑复制需要自定义扩展),和本可以避免的长时间停机。
\n\n\n2019年2月5日更新:
\n
\nAiven.io已经发布了auto_explain支持,和作为可用的维护更新的已修复的Timescale 1.2。
总的来说,我不明白Aiven.io提供了什么附加价值,因为我们甚至在数据库容量不足时也没收到警告。
\n \n由于一个无人值守的复制槽使WAL不断增加而耗尽磁盘空间
\n当这种情况发生时,支持系统将实例升级为有更大容量的实例。尽管这是一个好的解决方案,但是,它导致了过长的停机时间。具有SSH访问权的人应该诊断出该问题,并在几分钟内修复。
\n由于Avien.io所用的(后来证明是这样)TimescaleDB扩展中的错误,我们开始经历不断的停机,支持部门没有为该问题提供任何解决方法。
\n\n\n我们正在研究该问题,与timescale团队合作,但是,对大多数问题的响应不是即时的。我们的帮助文档(https://help.aiven.io/support/aiven-support-details)描述了我们提供的响应时间。
\n
当客户服务器处于崩溃循环时,这是一个非常被动的响应(两天之后,Aiven.io还没有跟进)。
\n尽管在一些问题上,我对Aiven.io颇有微词,但是,总体上,他们的支持是相当不错的。他们容忍我在文档中已经涵盖的问题,并且帮助解决问题。我们离开的主要原因是缺乏SSH/超级用户权限。
\n自托管
\n我一直在试图避免不可避免的事,也即我们自己管理数据库。现在,我们租用我们自己的硬件并维护数据库。我们有很多好的硬件,比任何云服务供应商能提供的更好,能够及时恢复(多亏了Barman),也没有供应商锁定,并且(理论上)比用谷歌云或AWS托管要便宜30%。这省下来的钱我们可以用来请一位自由数据库管理员每天检查一次服务器。
\n要点
\n这里的要点是,谷歌和亚马逊优先考虑他们的专有解决方案(谷歌的BigQuery和亚马逊的Redshift)。因此,我们必须计划未来我们需要的功能。对于一个简单的数据库,它既不会变成一个有数十亿条记录的数据库,也不需要自定义扩展,那么我会不假思索地选其中任何一个(即时扩展实例,把服务器迁移到不同的地区,时间点恢复,内置的监控工具和托管复制可以省下很多时间)。
\n如果业务全跟数据有关,并且知道需要自定义硬件配置等等,那么最好的选择是自托管并管理数据库。也就是说,逻辑迁移非常简单,如果可以从任何一个托管供应商开始,并利用他们的启动资金,那么启动一个项目是很好的方法,并且,稍后如果有必要,可以进行迁移。
\n如果我重新开始,那么我会把时间花在估计我们会成长得多快和多大,我会用裸机设置并从第一天就开始请一位自由数据库管理员。
\n福利:性能
\n我选择托管服务的主要标准是减少管理开销。我认为成本和硬件大致相同。Aiven.io已经写了一篇文章,在文章中比较了PostgreSQL在AWS、GCP、Azure、DO和UpCloud的性能(GCP的性能在所有测试中都比AWS高出2倍)。
\n物化数据
\n我有没有提到这是我第一次使用PostgreSQL?
\n在此之前,我主要使用MySQL。我决定把PostgreSQL用于此次创业的原因是PostgreSQL支持物化视图和编程语言。我认为物化视图本身就是个很好的功能,可以用来学习PostgreSQL。相反,我以为永远不会在数据库里运行脚本(MySQL给我的教训是,数据库只能用于存储数据,所有逻辑必须在应用程序代码中实现)。
\n两年后,我们摆脱了大多数物化视图,现在我们使用数百个定制程序。但是,在这之前,在使用物化视图时,有多次失败的尝试。
\n首次尝试使用PostgreSQL物化视图
\n我第一次使用物化视图的用例可以概括为“有一个富含元数据的基表”,例如:
\nCREATE MATERIALIZED VIEW venue_view AS\nWITH\n auditorium_with_future_events AS (\n SELECT\n e1.venue_id,\n e1.auditorium_id\n FROM event e1\n WHERE\n -- The 30 days interval ensures that we do not remove auditoriums\n -- that are temporarily unavailable.\n e1.start_time \u0026gt; now() - INTERVAL '30 day' AND\n e1.auditorium_id IS NOT NULL\n GROUP BY\n e1.venue_id,\n e1.auditorium_id\n ),\n auditorium_with_future_events_count AS (\n SELECT\n awfe1.venue_id,\n count(*) auditorium_count\n FROM auditorium_with_future_events awfe1\n GROUP BY\n awfe1.venue_id\n ),\n venue_auditorium_seat_count AS (\n SELECT DISTINCT ON (e1.venue_id, e1.auditorium_id)\n e1.venue_id,\n e1.auditorium_id,\n e1.seat_count\n FROM auditorium_with_future_events awfe1\n INNER JOIN event e1 ON e1.venue_id = awfe1.venue_id AND e1.auditorium_id = awfe1.auditorium_id\n WHERE\n e1.start_time \u0026gt; now() - INTERVAL '30 day' AND\n e1.auditorium_id IS NOT NULL AND\n e1.seat_count IS NOT NULL\n ORDER BY\n e1.venue_id,\n e1.auditorium_id\n ),\n venue_seat_count AS (\n SELECT\n vasc1.venue_id,\n sum(vasc1.seat_count) seat_count\n FROM venue_auditorium_seat_count vasc1\n GROUP BY vasc1.venue_id\n )\nSELECT DISTINCT ON (v1.id)\n v1.id,\n v1.google_place_id,\n v1.fuid,\n v1.cinema_id,\n v1.street_1,\n v1.street_2,\n v1.postcode,\n v1.coordinates,\n gp1.country_id,\n gp1.timezone_id,\n COALESCE(v1.phone_number, c1.phone_number) AS phone_number,\n v1.display_name AS name,\n COALESCE(v1.alternative_url, v1.url) AS url,\n v1.permanently_closed_at,\n awfec1.auditorium_count,\n nearest_venue.id nearest_venue_id,\n CASE\n WHEN nearest_venue.id IS NULL\n THEN NULL\n ELSE round(ST_DistanceSphere(gp1.location, nearest_venue.location))\n END nearest_venue_distance,\n vsc1.seat_count seat_count\nFROM venue v1\nLEFT JOIN venue_seat_count vsc1 ON vsc1.venue_id = v1.id\nLEFT JOIN google_place gp1 ON gp1.id = v1.google_place_id\nLEFT JOIN LATERAL (\n SELECT\n v2.id,\n gp2.location\n FROM venue v2\n INNER JOIN google_place gp2 ON gp2.id = v2.google_place_id\n WHERE v2.id != v1.id\n ORDER BY gp1.location \u0026lt;-\u0026gt; gp2.location\n LIMIT 1\n) nearest_venue ON TRUE\nLEFT JOIN auditorium_with_future_events_count awfec1 ON awfec1.venue_id = v1.id\nINNER JOIN cinema c1 ON c1.id = v1.cinema_id\nWITH NO DATA;\nCREATE UNIQUE INDEX ON venue_view (id);\nCREATE INDEX ON venue_view (google_place_id);\nCREATE INDEX ON venue_view (cinema_id);\nCREATE INDEX ON venue_view (country_id);\nCREATE INDEX ON venue_view (nearest_venue_id);\n
\n
在这里,venue是基表,我们用附加数据对其进行扩展,并称之为venue_view。
\n只需遵守两个规则:
\n_view必须包含基表的所有列。
\n_view必须包含基表的所有行。
以上查询没有任何问题。这个方法在很长时间里都有效。但是,随着记录的数量增长到数百万和数十亿的时候,刷新物化视图的时间从几秒钟增加到几小时。(如果你对物化视图不熟悉,那么值得注意的是,你只能刷新整个物化视图,没有办法根据条件刷新视图的子集。)
\n第二次尝试:分而治之
\n我尝试通过把MV分解为多个更小的MV来解决该问题,如:
\n(请注意,我们已经把查询从CTE迁移到专用MV。)
CREATE MATERIALIZED VIEW auditorium_with_future_events_view\nSELECT\n e1.venue_id,\n e1.auditorium_id\nFROM event e1\nWHERE\n -- The 30 days interval ensures that we do not remove auditoriums\n -- that are temporarily unavailable.\n e1.start_time \u0026gt; now() - INTERVAL '30 day' AND\n e1.auditorium_id IS NOT NULL\nGROUP BY\n e1.venue_id,\n e1.auditorium_id\nWITH NO DATA;\nCREATE UNIQUE INDEX ON auditorium_with_future_events_view (venue_id, auditorium_id);\nCREATE MATERIALIZED VIEW venue_auditorium_seat_count_view\nSELECT DISTINCT ON (e1.venue_id, e1.auditorium_id)\n e1.venue_id,\n e1.auditorium_id,\n e1.seat_count\nFROM auditorium_with_future_events_view awfe1\nINNER JOIN event e1 ON e1.venue_id = awfe1.venue_id AND e1.auditorium_id = awfe1.auditorium_id\nWHERE\n e1.start_time \u0026gt; now() - INTERVAL '30 day' AND\n e1.auditorium_id IS NOT NULL AND\n e1.seat_count IS NOT NULL\nORDER BY\n e1.venue_id,\n e1.auditorium_id\nWITH NO DATA;\nCREATE UNIQUE INDEX ON venue_auditorium_seat_count_view (venue_id, auditorium_id);\nCREATE MATERIALIZED VIEW venue_view AS\nWITH\n auditorium_with_future_events_count AS (\n SELECT\n awfe1.venue_id,\n count(*) auditorium_count\n FROM auditorium_with_future_events_view awfe1\n GROUP BY\n awfe1.venue_id\n ),\n venue_seat_count AS (\n SELECT\n vasc1.venue_id,\n sum(vasc1.seat_count) seat_count\n FROM venue_auditorium_seat_count_view vasc1\n GROUP BY vasc1.venue_id\n )\nSELECT DISTINCT ON (v1.id)\n v1.id,\n v1.google_place_id,\n v1.fuid,\n v1.cinema_id,\n v1.street_1,\n v1.street_2,\n v1.postcode,\n v1.coordinates,\n gp1.country_id,\n gp1.timezone_id,\n COALESCE(v1.phone_number, c1.phone_number) AS phone_number,\n v1.display_name AS name,\n COALESCE(v1.alternative_url, v1.url) AS url,\n v1.permanently_closed_at,\n awfec1.auditorium_count,\n nearest_venue.id nearest_venue_id,\n CASE\n WHEN nearest_venue.id IS NULL\n THEN NULL\n ELSE round(ST_DistanceSphere(gp1.location, nearest_venue.location))\n END nearest_venue_distance,\n vsc1.seat_count seat_count\nFROM venue v1\nLEFT JOIN venue_seat_count vsc1 ON vsc1.venue_id = v1.id\nLEFT JOIN google_place gp1 ON gp1.id = v1.google_place_id\nLEFT JOIN LATERAL (\n SELECT\n v2.id,\n gp2.location\n FROM venue v2\n INNER JOIN google_place gp2 ON gp2.id = v2.google_place_id\n WHERE v2.id != v1.id\n ORDER BY gp1.location \u0026lt;-\u0026gt; gp2.location\n LIMIT 1\n) nearest_venue ON TRUE\nLEFT JOIN auditorium_with_future_events_count awfec1 ON awfec1.venue_id = v1.id\nINNER JOIN cinema c1 ON c1.id = v1.cinema_id\nWITH NO DATA;\nCREATE UNIQUE INDEX ON venue_view (id);\nCREATE INDEX ON venue_view (google_place_id);\nCREATE INDEX ON venue_view (cinema_id);\nCREATE INDEX ON venue_view (country_id);\nCREATE INDEX ON venue_view (nearest_venue_id);\n
\n
这种方法的好处是:
\n1.我们把一个长事务分解成很多短事务。
\n2.我们能够用索引来加速JOIN。
\n3.我们能够刷新单个物化视图(某些数据比其他数据改变得更频繁)。
这种方法的缺点是它增加了我们使用的物化视图的数量,并需要开发一个自定义解决方案来协调物化视图的刷新。在当时,这似乎是合理的,我就接受了。于是产生了materialized_view_refresh_schedule表以及我们的第一个数据库内队列:
\nCREATE TABLE materialized_view_refresh_schedule (\n id SERIAL PRIMARY KEY,\n materialized_view_name citext NOT NULL,\n refresh_interval interval NOT NULL,\n last_attempted_at timestamp with time zone,\n maximum_execution_duration interval NOT NULL DEFAULT '00:30:00'::interval\n);\nCREATE UNIQUE INDEX materialized_view_refresh_schedule_materialized_view_name_idx ON materialized_view_refresh_schedule(materialized_view_name citext_ops);\nCREATE TABLE materialized_view_refresh_schedule_execution (\n id integer DEFAULT nextval('materialized_view_refresh_id_seq'::regclass) PRIMARY KEY,\n materialized_view_refresh_schedule_id integer NOT NULL REFERENCES materialized_view_refresh_schedule(id) ON DELETE CASCADE,\n started_at timestamp with time zone NOT NULL,\n ended_at timestamp with time zone,\n execution_is_successful boolean,\n error_name text,\n error_message text,\n terminated_at timestamp with time zone,\n CONSTRAINT materialized_view_refresh_schedule_execution_check CHECK (terminated_at IS NULL OR ended_at IS NOT NULL)\n);\nCREATE INDEX materialized_view_refresh_schedule_execution_materialized_view_ ON materialized_view_refresh_schedule_execution(materialized_view_refresh_schedule_id int4_ops);\n
\n
物化视图的名称存于materialized_view_refresh_schedule表中,并包含需要刷新的频率的说明。编写了另一个程序以使用这些指令来执行物化。
\nCREATE OR REPLACE FUNCTION schedule_new_materialized_view_refresh_schedule_execution()\nRETURNS table(materialized_view_refresh_schedule_id int)\nAS $$\nBEGIN\n RETURN QUERY\n UPDATE materialized_view_refresh_schedule\n SET last_attempted_at = now()\n WHERE id IN (\n SELECT mvrs1.id\n FROM materialized_view_refresh_schedule mvrs1\n LEFT JOIN LATERAL (\n SELECT 1\n FROM materialized_view_refresh_schedule_execution mvrse1\n WHERE\n mvrse1.ended_at IS NULL AND\n mvrse1.materialized_view_refresh_schedule_id = mvrs1.id\n ) AS unendeded_materialized_view_refresh_schedule_execution ON TRUE\n WHERE\n unendeded_materialized_view_refresh_schedule_execution IS NULL AND\n (\n mvrs1.last_attempted_at IS NULL OR\n mvrs1.last_attempted_at + mvrs1.refresh_interval \u0026lt; now()\n )\n ORDER BY mvrs1.last_attempted_at ASC NULLS FIRST\n LIMIT 1\n FOR UPDATE OF mvrs1 SKIP LOCKED\n )\n RETURNING id;\nEND\n$$\nLANGUAGE plpgsql;\n
\n
该程序将调用schedule_new_materialized_view_refresh_schedule_execution来安排物化视图的刷新,同时评估REFRESH MATERIALIZED VIEW…并记录结果。总的来说,该方法效果很好。但是,我们很快就不能使用该方法了。原因是需要扫描整个表的视图对拥有数十亿条记录的大型表来说不可行。
\n第三次尝试:使用MV来抽象数据的子集
\n我已经描述了我们如何使用MV来有效地扩展表。这种方法不适用于扩展大型表。于是,产生了第三次迭代:我们没有使用物化视图来扩展基本表,而是创建抽象数据领域的物化视图。由于它的大小,venue_view能够保持原样,但是,像有数十亿条记录的event_view的假设视图将变为last_week_event、future_event等。这种方法有效果,我们继续使用几个这样的物化视图。
\n第四次尝试:物化表的列
\n尽管后一种方式涵盖了所有我们的日常操作,但是,我们还是需要在历史数据上进行查询。在没有物化视图的情况下来运行这些查询将对单个查询进行很多索引规划。此外,针对主实例运行长事务将防止自动真空并导致表膨胀。我本可以创建一个逻辑复制并允许分析师在那个实例上运行任何查询而不妨碍自动真空。然而,更大的问题是,作为一个初创公司,我们无法承担需要几个小时或几天来运行的查询。我们需要比其他人更快。因此诞生了目前的解决方案:物化表的列。
\n原则很简单:
\n描述我们希望用附加信息充实的实体的表,被改为包含一个materialized_at 时间戳列,和我们想要物化的每个数据点的列。在venue_view的示例中,我们将摆脱整个物化视图,并将原来的venue_view物化视图中的materialized_at、country_id、timezone_id、phone_number和其他列都添加到场地表。
\n然后,有一个脚本,它将观察所有拥有materialized_at列的表,并且每当其检测到某一行的materialized_at是空时,它会为物化的列计算新值并更新该行,如:
\nCREATE OR REPLACE FUNCTION materialize_event_seat_state_change()\nRETURNS void\nAS $$\nBEGIN\n WITH\n event_seat_state_count AS (\n SELECT\n essc1.id,\n count(*)::smallint seat_count,\n count(*) FILTER (WHERE ss1.nid = 'BLOCKED')::smallint seat_blocked_count,\n count(*) FILTER (WHERE ss1.nid = 'BROKEN')::smallint seat_broken_count,\n count(*) FILTER (WHERE ss1.nid = 'EMPTY')::smallint seat_empty_count,\n count(*) FILTER (WHERE ss1.nid = 'HOUSE')::smallint seat_house_count,\n count(*) FILTER (WHERE ss1.nid = 'SOLD')::smallint seat_sold_count,\n count(*) FILTER (WHERE ss1.nid = 'UNKNOWN')::smallint seat_unknown_count,\n count(*) FILTER (WHERE ss1.id IS NULL)::smallint seat_unmapped_count,\n count(*) FILTER (WHERE ss1.nid IN ('BLOCKED', 'BROKEN', 'HOUSE', 'SOLD', 'UNKNOWN')) seat_unavailable_count\n FROM event e1\n LEFT JOIN event_seat_state_change essc1 ON essc1.event_id = e1.id\n LEFT JOIN event_seat_state_change_seat_state esscss1 ON esscss1.event_seat_state_change_id = essc1.id\n LEFT JOIN cinema_foreign_seat_state fcss1 ON fcss1.id = cinema_foreign_seat_state_id\n LEFT JOIN seat_state ss1 ON ss1.id = fcss1.seat_state_id\n WHERE\n essc1.id IN (\n SELECT id\n FROM event_seat_state_change\n WHERE\n materialized_at IS NULL\n ORDER BY materialized_at DESC\n LIMIT 100\n )\n GROUP BY essc1.id\n )\n UPDATE event_seat_state_change essc1\n SET\n materialized_at = now(),\n seat_count = essc2.seat_count,\n seat_blocked_count = essc2.seat_blocked_count,\n seat_broken_count = essc2.seat_broken_count,\n seat_empty_count = essc2.seat_empty_count,\n seat_house_count = essc2.seat_house_count,\n seat_sold_count = essc2.seat_sold_count,\n seat_unknown_count = essc2.seat_unknown_count,\n seat_unmapped_count = essc2.seat_unmapped_count\n FROM event_seat_state_count essc2\n WHERE\n essc1.id = essc2.id;\nEND\n$$\nLANGUAGE plpgsql\nSET work_mem='1GB'\nSET max_parallel_workers_per_gather=4;\n
\n
同样,这需要编写一个定制解决方案,以观察表并管理其物化、行和列的到期逻辑等等。目前,我在开发一个开源版本,我计划在不久的将来进行发布。
\n这种方法的最大好处是可以按所希望的粒度来更新物化表的列:可以更新单个行,可以更新单个列(如,当添加了新的物化列,需要填充新的列值时,可以只需要生成该列的值;不需要运行完整的物化查询)。此外,因为更新是粒度的,所以它们都能够近乎实时地得到应用。
\n要点
\n这里的要点是,PostgreSQL物化视图对小型数据集是个极好的功能。但是,随着数据集的增长,需要谨慎地计划如何访问数据以及支持这种需求的物化策略。利用粒度物化视图和物化表的列的组合,我们可以实时地丰富数据库,并用于我们所有的分析查询,而不必增加数据仓储逻辑复制的复杂性。
\n使用数据库作为作业队列
\n这和我们处理的数据量关系不大,而与我们使用数据库的方式有关。如前所述,我的目标是减少数据处理管道中参与的服务数量。在数据库中包含作业队列的另一个好处是,可以保存和查询所有与数据库中每个数据点关联的作业(以及其属性)的记录。能够查询与每个数据点关联的作业和日志,把它和父作业及子作业连接起来等等,事实证明,这对于标记失败作业和指出问题的根源是很有价值的。
\n \n用PostgreSQL构建一个简单、可靠和高效的并发工作队列。
\n值得注意的是,通常对于并发作业队列,RDBM是个糟糕的选择(原因请参考What is SKIP LOCKED for in PostgreSQL 9.5?)。但是,在PostgreSQL的情况下,我们可以用于UPDATE…SKIP LOCKED来构建简单、可靠和高效的并发工作队列。其缺点在性能方面:
\n\n\n每个事务都会扫描表并跳过锁定的行,因此,对于大量活跃的工作节点来说,其可能需要做一些工作来获得新项目。这不只是把项目弹出栈。查询可能必须使用索引扫描遍历索引,从堆中获取每个候选项目,并检查锁定状态。对于任何合理的队列,这将都存在于内存中,但其仍然是相当大的变动。
\n
– https://blog.2ndquadrant.com/what-is-select-skip-locked-for-in-postgresql-9-5/
\n我对该警告没有引起足够的重视,结果给自己惹上了相当大的麻烦。简而言之,用来调度作用的查询的第一个版本执行时间很长,这意味着工作节点基本上处于闲置状态,我们在浪费宝贵的资源,而重要的任务没有及时完成。
\n解决方案相当简单:一个专用表,用未完成的任务列表来填充。从该表中选取一个作业很简单:
CREATE OR REPLACE FUNCTION schedule_cinema_data_task()\nRETURNS table(cinema_data_task_id int)\nAS $$\nDECLARE\n scheduled_cinema_data_task_id int;\nBEGIN\n UPDATE\n cinema_data_task_queue\n SET\n attempted_at = now()\n WHERE\n id = (\n SELECT cdtq1.id\n FROM cinema_data_task_queue cdtq1\n WHERE cdtq1.attempted_at IS NULL\n ORDER BY cdtq1.id ASC\n LIMIT 1\n FOR UPDATE OF cdtq1 SKIP LOCKED\n )\n RETURNING cinema_data_task_queue.cinema_data_task_id\n INTO scheduled_cinema_data_task_id;\nUPDATE cinema_data_task\n SET last_attempted_at = now()\n WHERE id = scheduled_cinema_data_task_id;\nRETURN QUERY SELECT scheduled_cinema_data_task_id;\nEND\n$$\nLANGUAGE plpgsql\nSET work_mem='100MB';\n\n\n主任务定义存于cinema_data_task。cinema_data_task_queue只用于对准备执行的任务进行排队。\n最大的问题是,每次执行新任务时,哪些任务可以运行的优先级和限制都会发生变化。因此,我们不是调度大量的作业,而是运行一个流程,每秒都去检查一下队列是否快空了,并用新任务填充它等等。\n\nCREATE OR REPLACE FUNCTION update_cinema_data_task_queue()\nRETURNS void\nAS $$\nDECLARE\n outstanding_task_count int;\nBEGIN\n SELECT count(*)\n FROM cinema_data_task_queue\n WHERE attempted_at IS NULL\n INTO outstanding_task_count;\nIF outstanding_task_count \u0026lt; 100 THEN\n INSERT INTO cinema_data_task_queue (cinema_data_task_id)\n SELECT\n cdtq1.cinema_data_task_id\n FROM cinema_data_task_queue(100, 50, 100, false) cdtq1\n WHERE\n NOT EXISTS (\n SELECT 1\n FROM cinema_data_task_queue\n WHERE\n cinema_data_task_id = cdtq1.cinema_data_task_id AND\n attempted_at IS NULL\n )\n ON CONFLICT (cinema_data_task_id) WHERE attempted_at IS NULL\n DO NOTHING;\n END IF;\nEND\n$$\nLANGUAGE plpgsql\nSET work_mem='50MB';\n
\n
在任务结束后,任务的引用将从cinema_data_task_queue中删除。这确保表的扫描很快,不让CPU一直繁忙。
\n该方法允许我们扩展到2000多个并发数据聚合代理。
\n注意:100个未完成任务的限制有点武断。我已经试验了大到10000的值,而没有任何可测量的性能损失。但是,只要我们保持队列里一直有数据,那么调度越精细,我们就能越好地平衡不同来源之间的数据聚合的负载平衡,我们也可以越快地停止从故障数据源中提取数据等等。
要点
\n如果准备把数据库用作作业队列,那么包含作业的表必须有合理的大小,并且用于调度下一个作业执行的查询时间不得超过几个毫秒。
\n其他
\n在扩展数据库时,这3件事是最大的挑战。其他一些问题包括:
\n- \n
- 当有数百个客户,每个客户每秒都运行数十个查询时,那么数据库和数据库客户端之间的延迟就很重要。我观察到(当时)我们的数据库托管在AWS RDS上,而我们的Kubernetes集群托管在GKE上时,这两者之间的延迟是12毫秒。通过把数据库迁移到同个数据中心,并把延迟减少到不到1毫秒后,我们的工作量增加了4倍。\n
识别不同云供应商之间的延迟。
\n- \n
- 列的顺序很重要。我们有一些具有60多个列的表。对列进行排序以避免填充操作,可以节约20%以上的存储空间(请参看https://blog.2ndquadrant.com/on-rocks-and-sand/)。\n
- 如果准备在主节点上运行长查询,那么评估vacuum_freeze_table_age以避免表膨胀。\n
- 这两个配置没有得到充分的讨论:from_collapse_limit、join_collapse_limit。这两个配置默认为8。如果不知道这些配置,可能会导致很多让人头痛的调试,搞乱执行计划。我们把from_collapse_limit提高到20,把join_collapse_limit提高到50。我还不清楚为什么默认值那么低。把它们提到那么高也没有什么惩罚。\n
- 为表的膨胀做计划,并知道如何修复。随着数据库变得越来越大,vacuum full变得不可行。探索一下pg_repack和pg_squeeze。\n
- 持续监控pg_stat_statements。用total_time排序。顶层查询最先得到服务。\n
- 持续监控pg_stat_user_tables。识别未充分利用的索引并监控死元组的积累。\n
- 持续监控pg_stat_activity。识别由于锁定造成的瓶颈并重构有问题的事务。\n
福利:Slonik PostgreSQL客户端
\n我们经常使用PostgreSQL。我们从使用node-postgres开始。node-postgres提供了很好的协议抽象。但是,感觉代码冗长,我们不断添加新的帮助程序来抽象重复的模式并支持调试体验。我们在很多不同的程序中都需要这些帮助程序。因此,我最终开发了Slonik,这是一个有严格类型、详细的日志记录和断言的PostgreSQL客户端。
\nSlonik有助于我们保持代码简洁,防止SQL注入,支持详细登录和与auto_explain相关的应用程序日志。
\n阅读英文原文:Lessons learned scaling PostgreSQL database to 1.2bn records/month
\n