职位描述
该职位还未进行加V认证,请仔细了解后再进行投递!
职位描述:
岗位职责:
1、负责基于Hadoop/Spark生态系统的大数据计算和挖掘研发;
2、负责基于Flink/SparkStreaming技术进行实时数据处理;
3、负责参与大数据应用需求分析、功能模块详细设计和相关文档的交付;
任职要求:
1、熟悉Hadoop,Spark,HDFS,Kafka,Redis,Hive,HBase,,druid等分布式系统框架;
2、熟练使用Scala,Pyhon,Java任一语言;
3、熟悉SparkStreaming,SparkSql, Flink, Apache Beam等组件,熟悉HiveSql等语言,并且能够性能调优;;
4、计算机、软件工程相关专业,本科及以上学历,5年以上相关工作经验;
相关福利和优势:
1、新华网控股公司 ;
2、我们关注员工成长,定期提供培训,助您提优更高的能力;
3、我们每月欢聚一堂,举办生日会,并为您呈上一份生日券;
4、我们关心您的健康,每年提供定期健康体检;
5、我们关心您的工作状态,朝九晚五,弹性工作时间;
6、我们激励您的潜能,提供晋升调薪的空间,努力就有回报;
工作地点
地址:南京玄武区南京南京市玄武大道699-22号徐庄路6号研发六区1栋4层
求职提示:用人单位发布虚假招聘信息,或以任何名义向求职者收取财物(如体检费、置装费、押金、服装费、培训费、身份证、毕业证等),均涉嫌违法,请求职者务必提高警惕。
职位发布者
HR
江苏瑞德信息产业有限公司
- 计算机软件
- 51-99人
- 公司性质未知
- 南京市玄武大道699-22号江苏软件园10号楼4楼