1、4-6年大數據領域研發經驗,熟練掌握Hadoop生態圈技術(如HDFS、MapReduce、Hive、HBase、YARN等);
2、精通大數據計算框架(如Spark、Flink、Storm等),能夠進行數據計算和處理任務的開發與優化;
3、熟悉數據倉庫技術(如Apache Hive、Presto、ClickHouse等),能夠進行高效的數據查詢和分析;
4、精通數據存儲與管理技術,了解數據庫、NoSQL(如MongoDB、Cassandra等)及分布式存儲系統的設計與應用;
5、有業務數據應用(反作弊、用戶畫像)研發經驗者優先;
6、有互聯網大廠工作經驗者優先。