0x00 前言
你是否担心互联网寒冬中首先淘汰的那波人就有自己?你是否感觉到自己缺乏核心竞争力?是否感觉已经很久没有学习成长?
如果有,那我们就可以继续聊下去~
废话不说,直奔主题,我们聊一下该如何学习。居士的观点很简单,就是标题的内容:面向简历学习!
大致意思就是,提前按照写简历的思路来安排自己的学习计划!我认为这是一种比较高效的学习态度,能让自己目标更明确,更有紧迫感。
0x01 规划
以数据仓库工程师为例,准备简历的时候应该有一些核心知识点要搞定,不同公司的要求不同,我们假设目标公司的期望如下:
- 了解 Hive、Spark 等分布式计算框架的原理
- 了解数据建模,了解Olap分析
- 了解数据治理
那么按照这个简单的要求,我们可以制定一系列的学习计划。
比如说这样一个简单的表格:
主题 |
内容 |
时间 |
分布式 |
Hive + Spark 基本使用 |
1 周 |
分布式 |
Hive + Spark 常用命令总结 |
1 周 |
分布式 |
Hive 高阶函数使用(cube、row_number等) |
1 周 |
分布式 |
Hive 执行过程原理 |
2 周 |
数据建模 |
常用数据仓库模型原理总结 |
1 周 |
数据建模 |
维度建模原理 |
1 周 |
数据建模 |
以淘宝的场景为例设计一套数据模型 |
1 周 |
数据建模 |
时间维表设计 |
1 周 |
数据建模 |
OLap分析原理+Kylin实践 |
3 周 |
数据建模 |
数据分层设计 |
1 周 |
数据治理 |
元数据管理 |
1 周 |
数据治理 |
数据质量监控设计 |
1 周 |
数据治理 |
数据血缘分析 |
1 周 |
论文阅读 |
Google 的 Goods 论文阅读(数据管理) |
1 周 |
按照上面这个表格,那我们在写简历的时候就可以比较自信地写上类似的内容:
- 熟悉 Hive、Spark 等分布式计算平台,了解其基本原理
- 熟练使用 Hive Sql,熟悉 cube、row_number、rollup等常用数据分析函数,能够完成日常数据分析工作
- 熟悉数据仓库原理,了解维度建模和数据分层,能够根据业务场景设计整套数据模型
- 熟悉数据治理,能够设计和实现元数据管理系统
- 有定期阅读论文的习惯,能将Google关于元数据管理的内容融入元数据系统设计中。
编了点内容,不严谨的地方,请勿见怪。
0x02 执行
前面聊了一下怎样执行学习计划,下面说一下怎么执行。
每个人的情况不同,我只说个人的意见:
- 找人组成兴趣小组,一起学
- 写博客,做总结,学一篇写一篇
- 最好找人带,有经验的人能帮你省很多弯路
总之,一定要想办法来让自己坚持下来,按照这个计划,只要能坚持下来,那么半年或者一年后,给面试官秀出你的博客,可能已经成功了一半。
0x03 收获?
关于面向简历学习,我认为最重要的一个点就是要提前准备,以个人为例,我的准备周期一般都是半年以上。耐得住性子,一周进步一点,半年或者一年后的收获是巨大的。
首先说,如果你记笔记或者写博客,那么只要能坚持,单从博客数量上,就有很大的收获。
另外,如果有人一起学习,互相交流带来的收获是巨大的,自从写博客,每次我收获最大的地方一般都是别人指出我博客的错误。
最后,这种有针对性,提前的准备,最容易培养自信,面试的时候不会感觉特别突兀,因为你一直都在准备,不慌。
0xFF 总结
一起加油学习吧!