职位要求
1、深入理解业务需求,抽象系统数据模型,对数据进行清洗、分析、统计及接口开发。2、按时按质完成公司下达程度开发、系统评测等工作任务。3、定期维护系统程序,快速处理反馈回来的系统bug。职位要求:1、熟悉Hadoop/Spark生态系统组件的使用,包括hdfs、hive、yarn等工作原理与使用方法,至少2年的Spark(Core/Streaming/SQL)开发经验,熟悉Spark的应用开发、任务调度等相关技术2、Java基础扎实,理解io、多线程、集合等基础知识,能够熟练运用各种常用算法和数据结构,熟练掌握sql语言,有独立数据处理能力3、熟练运用MySql/MongoDB/Redis数据库4、对数据有着强烈兴趣,有部署大规模Hadoop集群经验者优先,有数据挖掘经验者优先5、工作认真细致,态度积极,责任心强,良好的沟通与团队配合能力。