无论Flink还是Spark都支持自建集群(standalone cluster)。但是为了保证稳定性和资源隔离等,生产环境里的任务最好借助资源管理框架(如Yarn)运行。任务运行在yarn上,查询日志就可能不是很方便,尤其是任务进程异常退出之后。
JobHistoryServer
yarn容器退出之后,默认是不保存日志的。所以需要开启JobHistoryServer,具体方法网上有很多教程。
查看运行中Spark任务的Log
运行中的Spark任务可以直接通过spark web ui查看:
2.executor日志在哪里?
根据
Flink On Yarn如何查看任务日志
,我们已经知道了日志的url组成方式,这次同理,只要找到
容器名
和
node
就能访问日志了。
driver的url为:
http://node5:19888/jobhistory/logs/node3:8041/container_1634207619484_0496_01_000001/container_1634207619484_0496_01_000001/root/stderr/?start=0
搜索driver的日志,找到容器名
container_1634207619484_0496_01_000002
和host
node3