zabbix文档_zabbix模板导入步骤

宠物知识 2024-07-24 09:53:52

开源系统中 Zabbix 和 Nagios 哪个更好

但是近年来Linux已经越来越受到重用,它不再仅仅是一些开源发烧友们之间炫耀资本,而且已经在多方面价值得到了体现,尤其在作系统方面,已经成为资深运维工程师的的作工具。

我比较看好zabbix第十六阶段企业级Kvm虚拟化与OpenStack云计算这款软件,理由如下:

zabbix文档_zabbix模板导入步骤zabbix文档_zabbix模板导入步骤


zabbix文档_zabbix模板导入步骤


1.分布式,天生具有的功能,适合于构建分布式系统,具有node,proxy2种分布式模式

2.自动化功能,自动发现,自动注册主机,自动添加模板,自动添加分组,是天生的自动化运维利器的,当然于自动化运维工具搭配,puppet+zabbix,或者saltstack+zabbix,那是如鱼得水。

3.自定义比较方便,自定义项非常简单,支持变量,支持low ll discovery,可以参考我写的文档自动化运维之篇---利用zabbix自动发现功能实现批量web

4.触发器,也就是报警条件有多重判断机制,当然,这个需要你去研究一下,这也是zabbix的精华之处,

5.支持多种方式,agentd,snmp,ipmi,jmx,

6.提供api功能,二次开发方便,你可以选用zabbix来进行二次深度开发,结合cmdb资产管理系统,业务管理系统,从而使你的自动化运维系统达到新的高度。

7.当然zabbix还有很多其他功能,这里不一一介绍了。

关于linux学习路线的问题 请教前辈

Linux学习,主要学以下内容:

阶段:linux基础入门

1. 开班课程介绍-规章制度介绍-破冰活动;

2. Linux硬件基础/Linux发展历史;

3. Linux系统安装/xshell连接/xshell优化/SSH远程连接故障问题排查

4. 关一命令及特殊字符知识考试题讲解

5. Linux基础优化

6. Linux目录结构知识精讲

7. 第二关一命令及特殊

知识考试题讲解(上)

8. 第二关一命令及特殊知识考试题讲解(下)

9. Linux文件属性一大堆知识精讲

11. 第三关一命令及重要知识考试题讲解(上)

12. 第三关一命令及重要知识考试题讲解(下)

13. Linux系统权限(上)

14. Linux系统权限(下)

15. 阶段结束需要导师或讲师对整体课程进行回顾

第二阶段:linux系统管理进阶

3. Linux磁盘与文件系统(上)

5. Linux三剑客之sed命令

第三阶段:Linux Shell基础

1. Shell编程基础1

2. Shell编程基础234

3. Linux三剑客之awk命令

第四阶段:Linux网络基础

1. 计算机网络基础上

2. 计算机网络基础下

3. 第二阶段结束需要导师或讲师对整体课程进行回顾。

第五阶段:Linux网络服务

1. 集群实战架构开始及环境准备

2. rsync数据同步服务

3. Linux全网备份项目案例精讲

4. nfs网络存储服务精讲

5. inotify/sersync实时数据同步/nfs存储实时备份项目案例精讲

第六阶段:Linux重要网络服务

1. 协议/www服务基础

2. nginx web介绍及基础实践

3. nginx web精讲结束

4. lnmp环境部署/数据库异机迁移/共享数据异机迁移到NFS系统

5. nginx负载均衡深入透彻

6. ke4. 完善自动报警系统,对业务层面关键指标进行与报警通知;epalived高可用深入透彻

第七阶段:Linux中小规模集群构建与优化(50台)

2. 全体昼夜兼程部署期中架构并完成上台述职演讲(加上两个周末共9天)

3. kickstart cobbler 批量自动安装系统

4. pptp 与ntp服务

5. memcached原理及部署/作为缓存及session会话共享

第八阶段:Ansible自动化运维与Zabbix

1. SSH服务秘钥认证

2. ansible批量自动化管理集群(入门及深入)

3. zabbix

第九阶段:大规模集群高可用服务(Lvs、Keepalived)

2. lvs负载均衡集群/keepalived管理LVS集群

第十阶段:Ja Tomcat服务及防火墙Iptables

1. iptables防火墙精讲上

2. iptables防火墙精讲下

3. tomcat ja应用服务/nginx配合tomcat服务部署及优化

第十一阶段:MySQL DBA高级应用实践

1. MySQL数据库入门基础命令

2. MySQL数据库进阶备份恢复

3. MySQL数据库深入事务引擎

4. MySQL数据库优化SQL语句优化

5. MySQL数据库集群主从/读写分离

6. MySQL数据库高可用/mha/keepalved

第十二阶段:高性能数据库Redis和Memcached课程

第十四阶段:Linux Shell编程企业案例实战

第十五阶段:企业级代码发布上线方案(SVN和Git)

1. GIT管理6.提供api功能,二次开发方便,你可以选用zabbix来进行二次深度开发,结合cmdb资产管理系统,业务管理系统,从而使你的自动化运维系统达到新的高度。6.提供api功能,二次开发方便,你可以选用zabbix来进行二次深度开发,结合cmdb资产管理系统,业务管理系统,从而使你的自动化运维系统达到新的高度。

2. 代码上线项目案例

1. KVM虚拟化企业级实战

2. OpenStack云计算企业级实战

第十七阶段公有云阿里云8大组件构建集群实战

第十八阶段:Docker技术企业应用实践

1. Docker容器与微服务深入实践

2. 大数据Hadoop生态体系及实践

第十九阶段:Python自动化入门1. 负责大数据平台的稳定性和性能优化;及进阶

第二十阶段:职业规划与高薪就业指导

第1阶段

零基础入门

第2阶段

Linux系统管理&shell编程

第3阶段

百万级访问量集群实战

第4阶段

千万级访问量核心集群实战

第5阶段

一切核心技术的底层支持:云计算集群

第6阶段

大数据运维

第7阶段

Python自动化和指导

Hadoop大数据平台搭建实训目的意义?

很多人说zabbix不简单,其实是zabbix的设计理念有些超前,当你都研究到一定程度,你不得不佩服zabbix的团队是非常强悍的,这种工作机制也是相对先进的。

大数据运维工程师需要处理公司大数据平台各类异常和故障,确保系统平台的稳定运行。下面是我为您精心整理的大数据运维工程师的基本职责。

4. 对大数据和自动化运维开发有浓厚兴趣,有大规模hadoop运维经验者优先;有hadoop/hbase/spark/hive 开发经验者优先。

大数据运维工程师的基本职责1

2、负责车辆网平台的运行的解决方案编制、实施与二次功能开发;

3、负责技术文档手册编写,更新,经验总结沉淀,培训分享;

4、负责对新技术和方案进行调研,评估和引进,用技术去提升运维生产效率

任职资格:

1、熟悉常见的应用服务部署和调优(Nginx、MySQL、Redis、MongoDB、ELK,Hadoop等),熟悉高可用集群、负载均衡集群的规划与搭建;

2、熟练使用Linux、TCP/IP网络协议栈,了解常用的Troubleshooting手段和常见性能指标

3、具有车联网平台运维的经验,精于容量规划、架构设计、性能优化;

4、熟悉主流PaaS云产品的使用,具有运维平台开发经验者、参与过开源产品的开发者优先;

5、的沟通能力,出色的学习与钻研能力,良好的问题分析与解决能力;

6、对行业技术敏感度高且细致,善于思考,乐于发现,对解决具有挑战性问题充满。

大数据运维工程师的基本职责2

职责:

1、负责维护的运行,包括巡检、故障排除、数据备份等业务,保证高质量、高效率运行状态;

2、负责漏洞整改及补丁升级;

3、负责hadoop运维相关工作;

4、负责大数据平台的日常部署、升级、扩容、迁移;

5、负责高并发,大存储和实时流的Hadoop/spark大数据平也就是说,先学命令>在学应用>在学架构。台规划,运维,和优化工作。

任职资格:

1、2年左右运维经验;

2、对linux基础运维命令熟悉,shell,python至少精通一种,如会scala语言可优先考虑;

3、熟悉Linux的维护和管理,熟悉bat及Shell脚本开发,能看懂Python/Scala优先;

4、做过大规模hadoop集群优先;

5、大数据项目:包括不限于hadoop、hive、kafka、hbase、spark、Kudu、Impala等大数据生态的平台搭建,,运维,调优、生产环境hadoop集群trouble shooting 、hadoop版本升级管理及优化支持。

大数据运维工程师的基本职责3

1、负责Hadoop平台搭建,运维,管理,故障处理。

2、负责保障大数据平台的高效运转、提升系统稳定性和安全性。

4、建立Hadoop集群管理和维护规范,包括版本管理和变更记录等。

岗位要求:

1、有丰富的Hadoop生态系统的运维经验,了解Hadoop、Storm、Spark、Kafka这些组件的原理,具备部署、实施、维护hadoop 及相关组件的能力;

2、至少精通 Perl/Python/Shell脚本语言中的一种;

3、掌握Linux作系统的配置,管理、优化以及各种常用命令,能够排查及解决作系统层的各类问题;

5、有分析问题和解决问题的能力,能出。

大数据运维工程师的基本职责4

职责:

1.负责Hadoop、spark、hbase、oozie、hive等平台运营和优化工作,保障平台服务运行稳定、高效。

2.负责大数据方案架构及方案落地;

3.开发Hadoop大数据管理平台与建设;

3.负责hadoop平台部署、维护;生产问题、告警、故障处理及维护、日常值班;

4.负责集群网络架构、机器管理等。

任职资格:

1. 全日制本科以上学历,三年以上后台系统运营工作经验;

2. 熟悉hadoop原理,具有Hadoop平台应用及管理经验,熟悉hadoop、hive、spark、hbase、oozie、druid、kylin、flink等开源项目及部署、维护、调优;

3. 熟悉linux作系统及调优;熟悉sql编程,熟悉Shell/Python/Ja/Perl语言的一种或多种,有开发经验优先, 熟悉nagios,cacti,ganglia,zabbix,zenoss优先;

大数据运维工程师的基本职责5

职责:

2. 负责大数据项目的运维工作;

任职要求:

1、熟练掌握hadoop平台搭建、维护,有平台优化经验;

3、熟悉腾讯云产品,有腾讯云EMR使用经验者优先考虑;

开源系统中 Zabbix 和 Nagios 哪个更好

1. Centos7系统自行安装/centos6与7区别

我比较看好zabbix有与商业方面的机器学习经验;这款软件,理由如下:

现在对于大多数的电脑用户,很少有人自己用Linux作系统的,而且还有相当一部分人甚至是次听说Linux。但这并不奇怪,即使在很多大学生眼里也大都如此。在你们眼里只有Windows,只有微软,比尔盖茨是你们大多数人的偶像。那是微软先入为主的观念造成的,就如我们学习英语一样,如过我们生下来就用英语讲话,周围的人说的也都是英语,那么英语也就自然而然的学会了。而且像汉语一样受我们喜欢。下面尚观教育小编给同学们好好聊一聊。

2.自动化功能,自动发现,自动注册主机,自动添加模板,自动添加分组,是天生的自动化运维利器的,当然于自动化运维工具搭配,puppet+zabbix,或者saltstack+zabbix,那是如鱼得水。

3.自定义比较方便,自定义项非常简单,支持变量,支持low ll discovery,可以参考我写的文档自动化运维之篇---利用zabbix自动发现功能实现批量web

4.触发器,也就是报警条件有多重判断机制,当然,这个需要你去研究一下,这也是zabbix的精华之处,

5.支持多种方式,agentd,snmp,ipmi,jmx

7.当然zabbix还有很多其他功能,这里不一一介绍了。

国内的大厂,都有一套自己的系统,自己设计,自己开发,其功能也能和zabbix一样,更能适合于自己的需求,但一般企业用,特别是中型互联网公司,还是极力zabbix。

程序员的月薪能过万,可是很多大学生都不愿意干这行,根本原因是什么?

实现数据可视化

为什么这么说?自己切身感受,刚入行的时候觉得自己学习能力很强,从来没担心过程序员青春饭的事。可年龄慢慢大起来之后,学习能力真的是下滑,以前学一遍就能上手的东西,现在照着文档看半天,自己还是没理解原理。更可怕的是,新东西层出不穷.

3、对平台的Hadoop,Hbase,Kafka,Hive等进行优化。

从html,css,ja,php,git,mysql,redis,python,到项目构建打包相关的jira,docker,jenkins,promeus,grafana,zabbix,再到日志相关的ES,kibana,lostash,还有负载均衡相关的nginx,lvs,apache,keepalived,再到队列相关的rabbitMq,kafka,dubbo,spring clound,netty,xxl-jox,接下来还有呢,什么nacos,ribbo,feign,gateway,分库分表的mycat,sharding-sphere,kubernetes,openshift。

这些都是我程序生涯中遇到,经历或者准备开始学的,上面的这些东西,随便拿一个词去搜索学习吧,要是真正系统学习,一本书都不一定够。我才从事6-7年而已,未来技术栈只会越来越多,看着未来还要学这么多东西,说不绝望是不可能的。其他行业学一个东西,够他用一辈子了,程序员这行业要是不想被淘汰,就一直学吧,真正的学无止境。

阳说最近最深刻的认识就是生理体力的下降真的是无法避免的,到了一定的年龄,再努力也比不上你20来岁的时候那种才思敏捷的状态。而且,未来这行业只会越来越内卷,这种学习压力只会不断增加而不会有一丝松懈。

根本原因是程序员到了一定年纪就有职业瓶颈了,而且未来的发展空间并不是很大,加上付出与回报不成正比,所以很多大学生不愿意干。

程序员是一个很耗费心力的工作10. Linux通配符/正则表达式,熬夜、加班、还得能吃苦,毕竟程序员是真正的技术人员,不是谁都可以做的,所以干这一行,难学、难做。

因为程序员的工作压力非常大,而且还经常会加班,没有多余的日常生活,

压力山大呀

开源系统中 Zabbix 和 Nagios 哪个更好

职责:

我比较看好zabbix这款软件,理由如下:

2. Linux用户管理

2.自动化功能,自动发现,自动注册主机,自动添加模板,自动添加分组,是天生的自动化运维利器的,当然于自动化运维工具搭配,puppet+zabbix,或者saltstack+zabbix,那是如鱼得水。

3.自定义比较方便,自定义项非常简单,支持变量,支持low ll discovery,可以参考我写的文档自动化运维之篇---利用zabbix自动发现功能实现批量web

4.触发器,也就是报警条件有多重判断机制,当然,这个需要你去研究一下,这也是zabbix的精华之处,

5.支持多种方式,agentd,snmp,ipmi,jmx,

6.提供api功能,二次开发方便,你可以选用zabbix来进行二次深度开发,结合cmdb资产管理系统,业务管理系统,从而使你的自动化运维系统达到新的高度。

7.当然4. Linux磁盘与文件系统(中下)zabbix还有很多其他功能,这里不一一介绍了。

linux下lamp平台下安装zabbix到了,检查安装条件时,提示 PHP bcmath no Fail PHP tring no Fail

3. 针对业务需求制定统一的运维解决方案;

#1.首先进入php的源码目录下扩展目录

当你经过一段时间的学习后就应该扩充自己的知识,多学习Linux命令,但是不要在初学阶段就系统的学习Linux命令,初学阶段只要把上课时候学习过的命令练熟就可以了。

cd /root/php-7.1.3/ext

#2.进入要编译的模块的目录下,这里进入bcmath

cd /root/php-7.1.3/ext/bcmath

#3.执行如下命令

phpize

./configure --with-php-config=/usr/local/php/bin/php-config

make && make install

注意:--with-php-config的路径请以你的实际路径为准!

#4.编译成功后,日志会输出bcmath.so这个文件的地址

I1. 期中架构开战说明+期中架构部署回顾nstalling shared extensions: /usr/local/php/lib/php/extensions/no-debug-non-zts-20160303/

#5.将上述文件添加到php.ini文件里

vi /usr/local/php/lib/php.ini

extension=/usr/local/php/lib/php/extensions/no-debug-non-zts-20160303/bcmath.so

#6.重启你的apache或nginx后,再刷新页面查看是否成功。

zabbix 告警等级怎么设置

4、分析问题能力,善于从各种系统、应用日志中寻找出问题的原因。

zabbix的告警通知非常灵活,支持的通知类型有Email、Jabber、s、script 。其在设备需要修护时,同样可以提供同nagios 一样的设备维护期间,暂停告警的功能有,而且其相对于nagios 更加灵活。本篇就针对zabbix的告警和设备维护功能进行下说明。 一、media types 告警通知 本篇以脚本通知为例进行说明 1、配置AlertScriptsPath # vim /etc/zabbix/zabbix_server.conf 找到# AlertScriptsPath=${datadir}/zabbix/alertscripts 行,增加如下内容 AlertScriptsPath=/etc/zabbix/alertscripts 配置完成后,需要重启zabbix_server服务生效,在后面media type 写入的脚本名称就会从上面的配置目录中查找并执行。 2、创建media type 步骤为:登录 zabbix web 页面------Administration--------Media types--------Create Media Type(右上角) ,如下图: 配置完成后,se保存即可。 3、创建Action 步骤为:登录 zabbix web 页面---- Configuration ---- Actions ---- Create action , 如下图 subject为发送主题,message为发送内容(通过message内容的自定义,可以例如在告警时,将其他相关信息也进行通知,可以从侧面了解整个主机的运行情况---某次面试时面试官曾提过的需求),这两者的内容都可以很方便的进行更改。勾选了Recovery message 选项,会在项恢复时也会给一个恢复的提示。 condeitions 选项中设置的是触发通知的条件,默认情况下只有A、B两项 ,这里可以设置触发级别、主机组、主机、触发值、应用等 。举例说明下: 1、可以根据告警级别进行通知,如srity 级别大于等于erage时,通知OPS运维人员,级别为Disater时通知部门或者BOSS (这需要配置两个action); 2、也可以根据时间进行定义,如只在工作时间进行告警通知; 3、如果你喜欢的话,也可以指定不同主机组通知到不同的人; 而且所有条件之间的关系可以是AND或者OR ,默认情况下都是AND,即所有条件都满足时,触发通知。 注:个别主机,如DB主机,晚上有备份任务导致晚上某段时间过载(同时又不是所有主机都这样,又不想增大触发条件的话),可以在configuation ---hosts 里的s 选项里配置通知的时间范围,那里也有 time period 配置选项(从另一方面也反映了zabbix的灵活,有宏观调控,也有微观调控,适用性很强) 。不过要尽可能的都在actions 里进行配置,因为这一般查看具体条件都是在这里 。 下图是action的Operations部分,该项是必填项: Operation details 是一个比较强的配置项,这里主要有三个知识点---Escalations、remote command 和 nt acknowledged,其中Escalations、remote command比较重要 。 operation details 的 step部分主要和escalations 相关,在场景中,如果你一天收到100+的短信告警,真有一天“狼”真来了估计你也不会注意到。有了escalations功能,可以实现如下配置(需配置多条operation): 1、在单位时间内(step duration)发送的总的通知次数(to - from +1 次),并通知到相应的组或人; 2、如条件1中设置的是1800秒内发送1-5 次给OPS运维人员,结果运维人员在该时间段未能处理;我们就可以再增加一个Operations,指定from 5 to 10 (第5到10条告警)通知给 运维 ;我们还可以再增加,第11-15条给BOSS ,第16-20条告警时执行一个远程命令。 escalations部分,可以参看文档。 第二个知识点就是Operation type部分,类型可以是send message进行通知,也可以是remote command : remote command 可以支持的作有IPMI、Custom script、ssh、net、Global script (其中前两者只能在zabbix server 或 zabbix proxy上作),该功能是相当牛B的。如,检测到一个tomcat 服务404,我们就可以利用该功能重启tomcat 服务 。 remote command部分可以查看页面。 第三个功能主要是为有值班人员或上班时间准备的一个功能,当设置这个条件时,如果一个告警的状态被设置为ACK ,则本次告警的后续通知就会停止 。 在一线运维人员接到告警信息时,在zabbix 的首页上,移到相应告警提示的部分,选择主机的ACK 部分 ,点选 NO ,会跳出一个message的窗口,在message里输入相关信息 ,如:误报、因什么什么原因在调试、已通知到相关人等 ,并点击Acknowledge 提交,此时的ACK 状态会变成YES 。本次告警也将停止不再进行。直到本次告警解决,下次再次出现同样告警时,该项又会重新变成ACK 。 Acknowledge部分,可以参看官文页面。 二、maintenance 维护 在线场景中,经常会遇到这样的情况:在线产品需要进行升级或其他作,此时又不想将系统的完整告警功能进行全部关闭,只临时关闭在线升级主机的告警。这就可以使用zabbix的maintenance功能。具体配置方式如下: 创建maintenance的步骤为:登录 zabbix web 页面---- Configuration-----Maintenance ----- create maintenance period ,如下图所示: 选项卡配置的是任务名和一个大范围的时间值,其指定了维护所在的磊的时候段在什么范围。maintenance type 指定在维护期间是否仍进行数据搜集。 periods指定的时间段具体的维护时间段,和maintenace中的范围为包含关系。而period type指定了执行的类型,其类型有one time only 一次执行,也有按日、星期或月定期执行 ,如果是后三种方式,date项会变成具体的间隔、开始时间 。无论是何种类型,都有maintenance period length型 ,其指定了具体每次维护的持续时间,如2小时。 hosts & groups 项太多内容,就是选择某组主机或某个主机在维护期间不进行告警通知。

2、熟悉HDFS、Hive、Spark、HBbase、Kafka3.要用心学习Linux。、Flume等组件的原理,有阅读源码能力者优先;

从大数据入门,到达到一定水平,在学习路径上有什么建议

如果你想系统的学习Linux,你必需清楚的认识到这一点。如果你真正想系统的学习linux,想用Linux有所作为,那么请忘记Windows的思维方式,思想性的转变比暂时性的技术提高更有用, 而思想上的改变往往是受到我们行动所影响的,有不懂的问题就自己思考,查资料, 实在不会再去找别人的电脑去查,这样就加深了我每次对问题的理解,慢慢感受和习惯Linux的作方式,总有一天你会真正体验到他的奥妙所在,从而从自己内心深处喜欢他,使用他,而不是为了赶时髦或向人炫耀而使用他。

首先你要有自己职业规划,知道数据分析和大数据是做什么的、能解决什么问题,给自己定一个小目标。一个有经验的数据科学家:最少要有2到3年工作经验,而工作经验体现在运用数据科学处理各种商业问题的能力上,同时需要具备以下技能:

第十三阶段:Linux大规模集群架构构建(200台)

的分析技巧:探索凌乱的数据集并提取洞察的能力;

在SQL运用能力方面是一名内行;

能很好的掌握设检验、分配、回归分析和贝叶斯方法;

对于Python语言和Jupyter环境有经验;

对于pandas、numpy、sk-learn和NLTK有一定作经验;

具备写编写Latex格式文档的能力;

在统计学,运筹学,经济学,计算机科学,或其它相关领域具有本科或硕士学历。

未来数据分析是一种工具,在金融、互联网、电子商务、公共服务、医疗健康等领域非常广泛,职位上面偏业务的有数据分析师、数据产品、数据规划师等职位,偏技术的有大数据工程师、大数据架构师、算法工程师等职位。你需要了解自己的兴趣和特长并选择合适的职业通道。

在大学本科阶段,没有什么比学好数学更为重要的了:先关课程包括《高等数学》《线性代数》《概率与数理统计》《数值分析》《多元分析》《泛函分析》。数学是一门基础学科,需要长时间的学习和知识积累,而且数学课程离开学校是没地方补的。其他能力大部分是可以通过其他渠道学习的:

一、数据分析技能:

数据清洗

建立数学模型

运用合适的统计方法来分析数据

运用机器学习算法

检验模型的正确与否

二5.多记Linux命令、编程技能:

精通一种或多种数据分析工具(R/Matlab/SPSS/SAS)

精通一种或多种面向对角编程语言(Python、C++、Ja、C#、perl 等)

其他IT公司经常需要的技能(熟悉HTML/CSS,互联网公司可能会要求)

三、数据管理技能(尤其是针对大规模数据):

hadoop(尤其是hive/HBase、HDFS和MapRdeuce)

SQL

NoSL

其他IT公司常用的数据管理技能

四、商业知识:熟悉瀑布模型和敏捷模型等软件开发模式

理解公司运行规则

对于产业所属领域有所了解

其他公司常用商业技巧

五、交流技巧(软实力):

做演讲和PPT演示来展示产品

懂得倾听重点信息

能够将用户的需求转换为实际产品

其他公司常用交流交往技能

作为批“数据科学与大数据技术”的科班学生,你们无疑是幸运的,仰望星空,你们已经走在数据科学的大路上,前途一片光明。希望你们能想老一辈统计学家和人工智能专家学习,继往开来,早日成才!

你得先了解下什么是大数据 然后开始学习JAVA之类的基础语言 之后可以多看一些教学视频,当然要是有钱就去报班学习 要不就看些书,有个21天入门的大数据的 具体忘了是啥你可以搜搜。也可以去一些大数据巴士的里瞅瞅多跟人交流交流心得之类的。

我建议现决定个人职业发展路线,然后再决定学习路径上的情况

比如:大数据分很多岗位,大数据开发,大数据测试,大数据可视化,大数据清洗,大数据挖掘,大数据算法等很多岗位,先看看岗位i,觉得自己适合哪个方向,然后再有侧重点的学习,但是目前大数据行业应用最广泛的是大数据开发和大数据可视化,还有部分大数据测试,如果你自学能力很强,建议自学:但是如果你自学能力不强,还是找一个市场好一点的培训机构,系统参加下学习,比如:光环大数据,飞马训练营在市场就业和课程上都很不错,你有时间可以去看看

版权声明:本文内容由互联。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发 a13828211729@163.com 邮箱删除。