1 standalone模式
1.1 安装
解压缩 flink-1.7.0-bin-hadoop27-scala_2.11.tgz
修改 flink/conf/flink-conf.yaml 文件
![279d894f215b0a26dd2054d07b5b0905.png](https://img-blog.csdnimg.cn/img_convert/279d894f215b0a26dd2054d07b5b0905.png)
修改 /conf/slave文件
![83d555c12d7b6a7c4aef0aedf7858573.png](https://img-blog.csdnimg.cn/img_convert/83d555c12d7b6a7c4aef0aedf7858573.png)
.分发给 另外两台机子
![85887960de6daf9378ede7bfcdbe913a.png](https://img-blog.csdnimg.cn/img_convert/85887960de6daf9378ede7bfcdbe913a.png)
启动
![5b576eb5cd0ceb9c71bbc7b9da39e8dd.png](https://img-blog.csdnimg.cn/img_convert/5b576eb5cd0ceb9c71bbc7b9da39e8dd.png)
访问http://hadoop1:8081
![3ec3ddeb91c22fb47a97ce9bc806e19e.png](https://img-blog.csdnimg.cn/img_convert/3ec3ddeb91c22fb47a97ce9bc806e19e.png)
1.2 提交任务
1) 准备数据文件
![4fe01393c3320db8f94f207452cc5c92.png](https://img-blog.csdnimg.cn/img_convert/4fe01393c3320db8f94f207452cc5c92.png)
2) 把含数据文件的文件夹,分发到taskmanage 机器中
![d113edfc1ac73eb7433f051aa80db9c3.png](https://img-blog.csdnimg.cn/img_convert/d113edfc1ac73eb7433f051aa80db9c3.png)
由于读取数据是从本地磁盘读取,实际任务会被分发到taskmanage的机器中,所以要把目标文件分发。
3) 执行程序
./flink run -c com.atguigu.flink.app.BatchWcApp /ext/flink0503-1.0-SNAPSHOT.jar –input /applog/flink/input.txt –output /applog/flink/output.csv![058b59dbc894b5588a4c02883fdbb17c.png](https://img-blog.csdnimg.cn/img_convert/058b59dbc894b5588a4c02883fdbb17c.png)
4) 到目标文件夹中查看计算结果
![a13a0c1ee1d7ef730167fe59cb5f3900.png](https://img-blog.csdnimg.cn/img_convert/a13a0c1ee1d7ef730167fe59cb5f3900.png)
注意:计算结果根据会保存到taskmanage的机器下,不会再jobmanage下。
5) 在webui控制台查看计算过程
![1576fc6f35207c70660e80a7f290ad89.png](https://img-blog.csdnimg.cn/img_convert/1576fc6f35207c70660e80a7f290ad89.png)
文章来源:大数据培训
大数据培训课程之Flink部署 - 技术聚焦 - 尚硅谷www.atguigu.com![95b58601515ba9f3fd656c77ca7dd731.png](https://img-blog.csdnimg.cn/img_convert/95b58601515ba9f3fd656c77ca7dd731.png)