Spark On Yarn如何查看任务日志

无论Flink还是Spark都支持自建集群(standalone cluster)。但是为了保证稳定性和资源隔离等,生产环境里的任务最好借助资源管理框架(如Yarn)运行。任务运行在yarn上,查询日志就可能不是很方便,尤其是任务进程异常退出之后。

JobHistoryServer

yarn容器退出之后,默认是不保存日志的。所以需要开启JobHistoryServer,具体方法网上有很多教程。

查看运行中Spark任务的Log

运行中的Spark任务可以直接通过spark web ui查看:

2.executor日志在哪里?

根据 Flink On Yarn如何查看任务日志 ,我们已经知道了日志的url组成方式,这次同理,只要找到 容器名 node 就能访问日志了。
driver的url为: http://node5:19888/jobhistory/logs/node3:8041/container_1634207619484_0496_01_000001/container_1634207619484_0496_01_000001/root/stderr/?start=0
搜索driver的日志,找到容器名 container_1634207619484_0496_01_000002 和host node3