学习啦 > 实用范文 > 办公文秘 > 岗位职责 > 大数据运维工程师的工作职责

大数据运维工程师的工作职责

时间: 舒欣1213 分享

大数据运维工程师的工作职责

  大数据需要负责公司产品的技术支持、安装调试、客户使用培训及相关硬件的安装调试。下面是学习啦小编为您精心整理的大数据运维工程师的工作职责。

  大数据运维工程师的工作职责1

  职责:

  1、负责和参与公司大数据基础架构平台规划,运维,监控和优化工作,保障数据平台服务的稳定性和可用性;

  2、研究大数据前沿技术,改进现有系统的服务和运维架构,提升系统可靠性和可运维性;

  3、负责和参与自动化运维系统及平台的建设;

  4、负责优化部门运维流程提升运维效率。

  任职要求:

  1、统招本科及以上学历,计算机相关专业,2年以上互联网运维工作经验;

  2、熟悉Linux操作系统及常见开源软件(Nginx,Tomcat,Zabbix等)的配置,管理及优化,能够独立排查及解决操作系统层的各类问题;

  3、熟悉Hadoop/Kafka/Hbase/Spark/Elasticsearch/Hive的组件原理及运维方式;

  4、精通Python,shell,了解JAVA;有良好的系统性能优化及故障排除能力;

  5、具有很强的责任心、执行力、服务意识、学习能力和抗压能力;

  6、具备较好的沟通能力、主动性和团队合作精神。

  大数据运维工程师的工作职责2

  职责:

  1、负责Hadoop、HBase、Hive、Spark等大数据平台 规划、部署、监控、系统优化等,确保高可用;

  2、负责公司大数据平台的运维管理工作,集群容量规划、扩容及性能优化;

  3、处理公司大数据平台各类异常和故障,确保系统平台的稳定运行;

  4、设计实现大规模分布式集群的运维、监控和管理平台;

  5、深入研究大数据业务相关运维技术,持续优化集群服务架构,探索新的大数据运维技及发展方向;

  6、为数据仓库、数据挖掘建模等数据应用项目提供运行环境支持。

  岗位要求:

  1、掌握Linux操作系统的配置,管理及优化,能够独立排查及解决操作系统层的各类问题;

  2、熟练掌握Python, shell中的至少一门语言,有Python运维工具开发经验优先;

  3、熟悉 Hadoop生态及高性能缓存相关的各种工具并有实战经验,包括但不限于Hadoop、HBase、Hive、Spark、impala、zookeeper、kafka、Elasticsearch、oozie、yarn、Scribe、Flume、Storm等;

  4、具有集群运维经验,以及大负载下的容量评估、问题定位、架构优化等能力优先;有分布式系统(计算/存储)开发经验优先;

  5、熟悉zabbix/ganglia/Prometheus/grafana系统的组合构件及使用;

  6、精通ELK系统,有过大规模ELK配置管理、调优经验,有过ElasticSearch搜索和分析引擎开发经验者优先;

  大数据运维工程师的工作职责3

  职责:

  1、负责大数据平台架构的规划、设计、搭建;

  2、负责大数据平台的运维保障工作;

  3、负责运维相关数据分析,以及报表产出;

  4、为线上服务高效稳定运行负责,支撑业务和数据量的快速扩张;

  5、深入理解大数据平台架构,发现并解决重大故障及性能瓶颈;

  6、研究跟进大数据架构领域新技术并分享。

  工作要求:

  1、熟悉大数据产品生态圈,包括但不限于HDFS、YARN、Hive、HBase、Spark等;

  2、精通Linux/Unix系统;

  3、有数据分析经验优先,精通一门以上脚本语言(shell/perl/python等),熟悉java/C/C++/Golang等开发语言一种及以上;

  4、有2年以上大数据平台相关运维开发经验,了解分布式平台运行的原理,并有实际部署维护经验;

  5、学习能力和主动性强,具有钻研精神,充满激情,乐于接受挑战;

  6、良好的服务意识,善于团队协作,项目管理,主动思考,自我驱动力强。

  大数据运维工程师的工作职责4

  1.负责公司大数据业务集群的运维工作(Hadoop/Hbase/Hive/Yarn/Spark/impala/kudu等)确保集群环境的稳定可用;

  2.负责集群容量规划、扩容及性能优化;

  3.负责大数据集群性能监控与优化,故障处理,数据备份及容灾恢复,集群出现异常时,能快速定位问题,并及时给出解决方案;

  4.设计实现大规模分布式集群的运维、监控和管理平台;

  5.参与/主导业务架构设计,在设计阶段给出可运维性改进建议;

  6.深入研究大数据业务相关运维技术,持续优化集群服务架构,探索新的大数据运维技术及发展方向;

  7.参与例如服务器维护、项目维护、监控维护等常见运维事务

  大数据运维工程师的工作职责5

  职责:

  1. 完成大数据平台日常运维工作(上线/日常监控/问题定位/脚本开发),涉及HDP/Hadoop/Spark/Tensorflow/Flink/Storm/Presto/Kudu/Alluxio等开源组件;

  2. 完成大数据自研平台工具运营,比如报表平台、调度平台和性能监控平台;

  3. 提升系统可靠性,完善监控策略,优化运维流程,提升部门运维效率,保证7*24服务;

  4. 参与开源社区建设,提升公司开源影响力;

  任职条件:

  1. 熟悉Hadoop工作原理,熟悉Hadoop、Hive、Storm、Presto、Flink、 Alluixo、Kudu等开源组件的搭建、维护以及问题定位;

  2. 熟悉Linux操作系统,熟练掌握Linux常用命令,了解ansible/puppet;

  3. 熟练掌握shell/python/java;

  4. 熟悉hive/spark sql工作原理,熟悉SQL语法,掌握数据库的维护工作;

  5. 对自动化运维有一定见解,使用过各种开源工具完成日常运维工作;

  6. 有大数据平台维护经验优先;

  7. 掌握dockerfile,了解大数据与k8s结合者优先;

  8. 参与开源社区,有代码贡献或者高质量博客文章者优先;

相关文章:

1.大数据运维工程师的职责精选

2.运维服务工程师的职位职责

3.运维经理的具体职责

4.运维主管的工作职责

5.运维经理的岗位职责

55899