700字范文,内容丰富有趣,生活中的好帮手!
700字范文 > 大数据精准营销协议书 大数据营销方案(八篇)

大数据精准营销协议书 大数据营销方案(八篇)

时间:2023-10-29 14:48:43

相关推荐

大数据精准营销协议书 大数据营销方案(八篇)

在日常的学习、工作、生活中,肯定对各类范文都很熟悉吧。写范文的时候需要注意什么呢?有哪些格式需要注意呢?这里我整理了一些优秀的范文,希望对大家有所帮助,下面我们就来了解一下吧。

关于大数据精准营销协议书一

1.负责数据etl开发,优化etl流程设计;

2.负责数据质量问题的分析、跟进、解决,进行数据质量监测、校验和提升;

3.负责etl开发实施文档的编写;

4.负责梳理公司数据仓库/数据集市数据清单、数据映射关系,优化现有数据仓库模型;

5.完善和梳理数据指标体系,完成和维护数据字典的工作;

6.参与数据标准的制定、数据标准管理和数据安全管理工作;

7.参与公司大数据平台的建设,包括sugar报表或神策接口配置,用户画像标签体系的开发等

任职要求:

1.有shell或python脚本开发经验;

2.有传统数据库sql server和mysql,有存储过程编写能力;

3.熟悉hadoop生态相关技术并有相关实践经验,包括但不限于sqoop、hive、hbase、kylin等开发经验;

4.有kettle、azkaban或oozie工作流调度经验;

5.熟悉hive sql或flink sql的开发;

6.有数据仓库模型设计,有使用kafka+flink streaming实时数据处理经验优先;

7.有sugar、神策或tableau使用经验,有用户画像或客户召回标签工作经验优先;

8.对数据挖掘和机器学习有所了解,包括常用的机器学习算法和数据建模过程的优先

关于大数据精准营销协议书二

职责:

1.参与大数据平台搭建以及项目技术架构。

2.数据分析,挖掘,模型具体的产品化;

3.根据产品需求,分析编写和制定大数据相关解决方案

岗位要求:

1、计算机相关专业本科以上学历,编程基础扎实,有2年以上大数据开发经验

2、熟悉hadoop生态和体系架构,熟悉flink、spark,hive等常用开源工具

3、熟悉flume,kakfa,scribe等日志收集体系

4、熟悉主流数据库(oracle、postgresql、mysql、sql server)中的1种及以上,有较好的sql性能调优经验

5、有数据仓库etl经验者优先

6、有用户行为日志采集、海量数据处理、数据建模方面经验者优先

7、有持续学习的能力;喜欢开源软件,乐于知识分享;对工作认真负责;可以独立承担较大工作压力

关于大数据精准营销协议书三

职责:

1. 负责集团mysql数据库部署、上线、管理、优化、维护和备份

2. 负责集团mysql数据库的稳定性、高可用性、扩展性的相关保障工作

3. 协助业务方同学完成线上操作需求、故障排查、sql调优和数据归档

4. 工作认真细致,责任心强,具有良好的抗压能力和团队合作精神

任职要求:

1. 5年以上专职mysql dba工作经验,维护过大请求量和大数据量数据库

2. 深入理解mysql体系架构和原理,对数据库优化,架构设计有较深入的研究和实践经验

3. 熟悉掌握mysql 5.7和8的新特性和新功能,并有线上使用经验

4. 熟悉掌握mgr和hma的原理、配置和管理,并有线上部署经验

5. 熟悉掌握xtrabackup和ghost优缺点,并有线上操作经验

6. 对orchestrator、pxc、inception、sqladvisor、soar或archer等有所了解或使用经验

7. 对percona、oracle、postgresq、tidb、nosql类、bigdata类和k8s相关技术有所掌握或了解者更佳

8. 熟悉linux日常操作与配置,至少熟悉bash、python、golang或java编程中的两种

关于大数据精准营销协议书四

职责:

1、根据业务需求对数据进行统计、分析;

2、负责处理与维护应用系统基础数据;

3、负责大数据平台的数据筛选、整理工作;

4、完成上级交付的其他任务。

岗位要求:

1、大学本科及以上学历,金融学、数学、统计学相关专业优先;

2、注重细节,对数字敏感,逻辑性强,擅长数据分析、分析和解决问题;

3、有至于向数据分析、数据挖掘方向发展;

4、良好的沟通和团队协助能力,同时要具备很强的责任心。

关于大数据精准营销协议书五

职责:

1、负责公司大数据平台自动化运维开发、监控和优化工作,保障数据平台服务的稳定性和可用性;

2、负责公司hadoop核心技术组件日常运维工作 ;

3、负责公司大数据平台现场故障处理和排查工作;

4、研究大数据前沿技术,改进现有系统的服务和运维架构,提升系统可靠性和可运维性;

任职要求:

1、本科或以上学历,计算机、软件工程等相关专业,3年以上相关从业经验

2、精通linux运维命令,熟悉linux的维护和管理,熟悉shell/python脚本开发,掌握scala/java优先;

3、熟悉大数据项目实施:包括不限于kafka、hadoop、hive、hbase、spark等大数据生态的平台搭建,监控和调优;

4、良好团队精神服务意识,沟通协调能力;

关于大数据精准营销协议书六

职责

1、负责传感器数据核心数据库产品整体架构设计及开发工作;

2、负责传感器数据数据库产品核心代码开发,并对存储性能进行持续调优;

3、进行传感器数据数据库系统的上线及部署方案设计及开发;

4、负责传感器数据库前端页面的开发,并针对业务需求进行持续调优;

5、对应用系统中存在的问题及性能瓶颈进行快速定位并解决;

岗位要求

1、具有3年以上数据库系统研发经验,大数据集群部署经验者优先;

2、精通数据库管理,熟练使用mysql、sqlserver、oracle数据库、sql语言,能独立进行应用排错、调优、数据库结构设计、数据备份和恢复等.

3、具有大型数据仓库或者数据库平台设计经验;

4、有大数据平台开发或者数据结构设计经验;

5、熟练掌握应用前端web的开发;

6、沟通能力较好,对传感器有一定思考和了解;

7、踏实肯干,技术视野开阔,对业界新技术敏感,喜欢钻研,具有良好的学习能力并注重团队合作;

关于大数据精准营销协议书七

职责:

1. 从海量数据中提取关键信息,挖掘有效用户特征。

2. 负责日常运维维护工作,监控数据特征,监控异常点。

3、参与设计开发模型、策略的监控报表,对于模型进行监控并可以跟进调优。

4、对业界的机器学习算法和应用有广泛了解并且能够跟踪最新进展。

5、上级交办的其他工作。

应聘要求:

1、统计、数学,计算机等专业本科以上学历,3年以上数据分析工作经验。

2、熟悉机器学习、分类算法等金融量化分析有一定研究。

3、熟练掌握sql、sas、python及相关统计进行分析的工具,coding能力较强, 有java和kettle语言编程经验的优先。

4、良好的沟通能力和团队合作精神,有一定的组织协调能力和较好的抗压能力;

5、对数据敏感,分析数据,抽象问题,对于把大数据和人工智能分析的结果能够应用到实际业务场景商业价值具有强烈的热情;

6、有消费金融行业数据分析从业经验或曾任职知名消费金融企业者优先。

关于大数据精准营销协议书八

职责:

1、负责规划科技大数据平台及科技数据入库自动化的方案设计;

2、负责大数据平台的开发和维护,以及对外服务接口的开发;

3、负责大数据平台的优化和改进工作。

任职要求

1、计算机相关专业本科及以上学历,5年以上开发经验,其中3年以上为互联网、大数据相关的开发经验;

2、熟知hadoop生态圈体系,精通hadoop/spark/storm/kafka中的一项或几项,深刻理解mapreduce的运行原理和机制,有mpi经验者尚佳;

3、熟悉elasticsearch、redis、hbased等相关数据库的构建和操作,尤其是数据库集群的构建和操作,熟悉neo4j者尚佳;

4、具有机器学习相关项目经验者优先。

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。