模式:使用 ray.wait 限制待处理任务数量
Contents
模式:使用 ray.wait 限制待处理任务数量#
在这种模式中,我们用 ray.wait() 来限制待处理任务的数量。
如果我们持续提交比其处理时间更快的任务,我们将在待处理任务队列中积累任务,最终可能导致 OOM。
使用 ray.wait() ,我们可以限制待处理任务的数量,以便待处理任务队列不会无限增长并导致 OOM。
Note
如果我们提交的任务数量有限,那么我们不太可能遇到上述问题,因为每个任务仅使用少量内存来记录队列中的任务。 当我们要运行的任务流无限时,这种情况更有可能发生。
Note
此方法主要用于限制同时执行的任务数。 它还可用于限制可以并发运行的任务数,但不建议这样做,因为它可能会损害调度性能。 Ray 会根据资源可用性自动决定任务并行性,因此调整可以并发运行的任务数的推荐方法是修改 每个任务的资源需求。
用例#
您有一个工作 actor ,其以每秒 X 个任务的速率处理任务,并且您希望以低于 X 的速率向其提交任务以避免 OOM。
例如,Ray Serve 使用此模式来限制每个工作者待处理的查询数量。
限制待处理任务#
代码#
无 backpressure:
import ray
ray.init()
@ray.remote
class Actor:
async def heavy_compute(self):
# taking a long time...
# await asyncio.sleep(5)
return
actor = Actor.remote()
NUM_TASKS = 1000
result_refs = []
# When NUM_TASKS is large enough, this will eventually OOM.
for _ in range(NUM_TASKS):
result_refs.append(actor.heavy_compute.remote())
ray.get(result_refs)
有 backpressure:
MAX_NUM_PENDING_TASKS = 100
result_refs = []
for _ in range(NUM_TASKS):
if len(result_refs) > MAX_NUM_PENDING_TASKS:
# update result_refs to only
# track the remaining tasks.
ready_refs, result_refs = ray.wait(result_refs, num_returns=1)
ray.get(ready_refs)
result_refs.append(actor.heavy_compute.remote())
ray.get(result_refs)