aiofiles 如何与 asyncio 配合实现高并发异步文件写入

aiofiles是专为asyncio设计的异步文件操作库,通过封装阻塞I/O为协程实现非阻塞读写,需用async with aiofiles.open()获取异步句柄并await读写,配合Semaphore限流与批量写入提升高并发场景性能。

aiofiles 是一个专为 asyncio 设计的异步文件操作库,它通过将标准的阻塞式文件 I/O 封装成协程,让读写文件也能“不等待”,从而真正融入异步事件循环。但要注意:它本身不提升磁盘吞吐性能,而是避免单个文件操作阻塞整个协程调度——这对高并发场景(如同时处理成百上千个日志、上传、导出任务)非常关键。

核心配合方式:用 async with + open 替代同步 open

所有文件操作必须在 async def 函数中进行,并使用 async with 语法获取异步文件句柄:

  • 不能直接调用 open(),那会阻塞事件循环
  • 必须用 aiofiles.open(...),它返回一个支持 await read() / await write() 的异步对象
  • 务必用 async with 确保自动关闭,否则可能泄漏文件描述符

示例:

async def write_log(filename, content):
  async with aiofiles.open(filename, "a", encoding="utf-8") as f:
    await f.write(f"[{time.time():.3f}] {content}\n")

高并发写入的关键:控制并发数,而非盲目 asyncio.gather

磁盘 I/O 并发过高反

而会因寻道/队列争抢导致整体变慢。推荐用 asyncio.Semaphore 限流:

  • 创建一个信号量,例如 sem = asyncio.Semaphore(10) 表示最多 10 个写入同时进行
  • 每个写任务前 async with sem:,自动排队等待空闲槽位
  • 避免用 asyncio.gather(*[write_log(...) for ...]) 直接展开大量协程

这样既保持异步非阻塞,又防止 IO 过载。

批量写入比逐条 await 更高效

频繁小写入(如每条日志都单独 write)会产生大量系统调用开销。更优做法是:

  • 先在内存中累积多条内容(如用 io.StringIO 或列表拼接)
  • 达到一定数量(如 100 条)或超时(如 100ms)后,一次性 await f.write(all_content)
  • 对日志类场景,可搭配 asyncio.create_task() 启动后台刷盘协程

注意平台与模式差异

aiofiles 底层仍依赖操作系统调用,不同平台行为略有不同:

  • Linux/macOS:基于 loop.run_in_executor 把阻塞调用扔进线程池,默认安全
  • Windows:需确保 Python ≥ 3.8 且使用 ProactorEventLoop(默认),否则可能报错
  • 不支持异步 os.stat()os.listdir() 等元数据操作,这些仍需 run_in_executor
  • "w" 模式会清空文件;"a" 追加写入,多协程并发追加时注意内容顺序不保证(除非加锁或单写入器)