1.计算机相关专业大专以上学历;
2.2年以上大数据产品或项目开发经验,精通Hadoop生态圈,熟练使用Spark,HBase、Hive、Kafka、Redis等;
3.精通SQL,熟练使用HSQL实现复杂数据处理逻辑,并具备数据处理调优的能力;
4.熟悉Linux开发环境,熟悉Linux的shell命令。
5.具有良好的逻辑思维能力和严谨的程序开发思想,具备独立问题排查与处理的能力;
6.良好的团队精神和合作意识,强烈的责任心,对工作有激情,良好的`沟通能力,能吃苦耐劳;
7.有大数据项目或产品背景者优先;
8.有使用Spark SQL进行数据处理,并具有Spark SQL优化经验者优先。
9.有Python或者Shell脚本开发经验优先
因篇幅问题不能全部显示,请点此查看更多更全内容