大数据运维
工作职责
1. 负责集团大数据平台基础平台层系统群建设与运维管理
2. 负责基于Hadoop/Spark/Hbase/Mdrill/Storm等分布式计算平台的系统基础架构设计与实现,满足基础平台层功能性/非功能性需求;
3. 负责上述计算平台系统的可用性、容量、性能、监控、发布、安全等运维管理工作,确保系统持续稳定、高效运行;
4. 深入理解上述分布式计算平台架构与工作原理,高效调优排障;
5. 系统运维规范与运维工具的设计与实现;
招聘要求
1. 熟悉服务器/存储/网络/OS/中间件等基础架构基本元素,熟悉linux操作系统,具备较强的调优排障能力;
2. 熟悉Hadoop/Spark/Hbase/Mdrill/Storm或其他分布式计算平台中的任意一个,并具备运维管理经验;有开发经验优先;
3. 熟悉shell/perl/python或其他脚本语言中的任意一门,熟悉java/C/C++或其他开发语言中的任意一门;有开发经验优先;
4. 大学本科及以上学历,计算机或者相关专业;
5. 具备很强的主动承担意识和自我驱动力,良好的客户服务意识;
6. 具备很强的主动学习意识和学习能力;
大数据开发
工作职责
1.优化.设计和规划Hadoop集群,提升集群的高可用性.高性能.高扩展特性;
2.负责数据仓库建设,数据ETL;
3.实现大数据分析计算需求,支持海量数据挖掘。
招聘要求
1.大学本科及以上学历,计算机相关专业毕业;
2.精通Java编程语言,熟悉Jvm运行机制及内存管理者优先;
3.熟悉Shell,Python等脚本语言;
3.有Hadoop工作经验,熟悉Hdfs/Mapreduce/Hbase/Hive等软件源码优先;
4.有优秀的学习能力,良好的沟通表达能力和团队合作精神;
5.有数据仓库.数据挖掘.互联网行业项目经验优先
简历可直接反馈到 HR:251529974@qq.com,感谢!
简历中请注明在“PPV课大数据学习社区”看到的招聘信息,谢谢合作!
1、回复“干货”查看【干货 数据分析师完整知识结构】
2、回复“答案”查看【大数据Hadoop面试笔试题及答案】
3、回复“设计”查看【这是我见过最逆天的设计,令人惊叹叫绝】
4、回复“可视化”查看【数据可视化专题】-数据可视化案例与工具
5、回复“禅师”查看【当禅师遇到一位理科生,后来禅师疯了!!知识无极限】
6、回复“啤酒”查看【数据挖掘关联注明案例-啤酒喝尿布】
原文始发于微信公众号(PPV课数据科学社区):【招聘】平安科技(深圳)招聘大数据运维和开发人员
原创文章,作者:ppvke,如若转载,请注明出处:http://www.ppvke.com/archives/26755