高手指路:Linux運維工程師的大數據安全修煉手冊

2020-12-11 驢總走天下

作者介紹

陳浩,北信源研發工程師,五年Linux運維工作經驗,熱衷運維技術研究、實踐和團隊分享。

從運維青銅到運維白銀再到運維黃金,這裡面牽扯到的方向問題也就是裝備,根據自己的愛好,每個人都應該選擇一個適合自己和喜歡自己的一個職業技術方向,如:大數據安全、開發運維、雲計算運維等。掌握越多前沿技術也就是掌握了更多的裝備,才能更好地在IT行業混下去,畢竟IT技術更新太快。

初級和中級篇詳見《從苦逼到牛逼,詳解Linux運維工程師的打怪升級之路》,今天給大家介紹大數據安全的正式面目。

Hadoop安全目錄:

Kerberos(已發布)

Elasticsearch

Knox

Oozie

Ranger

Apache Sentry

溫馨提醒:本文代碼部分較長,可向右滑動或PC端閱覽。點擊文末【閱讀原文】還可進入作者專欄查看更多學習資料。

一、大數據基本組件

二、Hadoop安全背景

共享集群

按照業務或應用的規則劃分資源隊列,並分配給特定用戶

HDFS上存放各種數據,包括公共的、機密的

安全認證:確保某個用戶是自己聲稱的那個用戶

安全授權:確保某個用戶只能做他允許的那些操作

三、設備說明

四、Kerberos基本概念

Principal(安全個體):被認證的個體,有一個名字和口令

KDC(key distribution center ) : 是一個網絡服務,提供ticket 和臨時會話密鑰

Ticket:一個票據,客戶用它來向伺服器證明自己的身份,包括客戶標識、會話密鑰、時間戳。

AS (Authentication Server): 認證伺服器

TGS(Ticket Granting Server): 許可證伺服器

TGT:Ticket-granting Ticket

五、Kerberos認證過程

六、集群啟用Kerberos認證

裝KDC Server

1、安裝一個新的KDC Server(任意一個集群主機,這裡hdp141為例)

# yum install krb5-server krb5-libs krb5-workstation

2、打開KDC Server的配置文件

# vi /etc/krb5.conf

修改文件中的[realms]部分,將為屬性kdc和admin_server設置的默認值「kerberos.example.com」替換成實際KDC server的主機名。在下面的例子中,「kerberos.example.com」被替換成了 「my.kdc.server」。

[realms]

EXAMPLE.COM = {

kdc = my.kdc.server

admin_server = my.kdc.server

}

3、(可選)自定義realms配置(EXAMPLE.COM修改為CESHI.COM,下面例子都為CESHI.COM)

# vi /etc/krb5.conf

[logging]

default = FILE:/var/log/krb5libs.log

kdc = FILE:/var/log/krb5kdc.log

admin_server = FILE:/var/log/kadmind.log

[libdefaults]

default_realm = CESHI.COM

dns_lookup_realm = false

dns_lookup_kdc = false

ticket_lifetime = 24h

renew_lifetime = 7d

forwardable = true

[realms]

CESHI.COM = {

kdc = hdp141

admin_server = hdp141

}

[domain_realm]

.vrv.com = CESHI.COM

vrv.com = CESHI.COM

# vi /var/kerberos/krb5kdc/kdc.conf

[kdcdefaults]

kdc_ports = 88

kdc_tcp_ports = 88

[realms]

CESHI.COM = {

#master_key_type = aes256-cts

acl_file = /var/kerberos/krb5kdc/kadm5.acl

dict_file = /usr/share/dict/words

admin_keytab = /var/kerberos/krb5kdc/kadm5.keytab

supported_enctypes = aes256-cts:normal aes128-cts:normal des3-hmac-sha1:normal arcfour-hmac:normal camellia256-cts:normal camellia128-cts:normal des-hmac-sha1:normal des-cbc-md5:normal des-cbc-crc:normal

}

4、創建Kerberos資料庫

創建過程中需要輸入master key。

# kdb5_util create -s

Loading random data

Initializing database '/var/kerberos/krb5kdc/principal' for realm 'CESHI.COM',

master key name 'K/M@CESHI.COM'

You will be prompted for the database Master Password.

It is important that you NOT FORGET this password.

Enter KDC database master key: ceshi123456.

Re-enter KDC database master key to verify: ceshi123456.

5、啟動KDC

# service krb5kdc start

# chkconfig krb5kdc on

# service kadmin start

# chkconfig kadmin on

6、創建kerberos Admin

通過創建一個admin principal創建KDC admin,需要輸入principal的密碼。

# kadmin.local -q "addprinc admin/admin"

Authenticating as principal root/admin@CESHI.COM.COM with password.

WARNING: no policy specified for admin/admin@CESHI.COM.COM; defaulting to no policy

Enter password for principal "admin/admin@CESHI.COM.COM": ceshi123456.

Re-enter password for principal "admin/admin@CESHI.COM.COM": ceshi123456.

Principal "admin/admin@CESHI.COM" created.

"admin/admin@CESHI.COM":ceshi123456.

打開KDC ACL文件,確認admin principal在KDC ACL中擁有權限,若沒有對應的域則需要添加。

# vi /var/kerberos/krb5kdc/kadm5.acl

*/admin@VRV.COM *

如果修改了文件kadm5.acl,那麼你就必須重啟kadmin進程

# service kadmin restart

7、啟用Kerberos保護

安裝JCE:必須用官網下載的JCE覆蓋本地已有的JCE,否則將缺少供Kerberos使用的加密方式。

在Ambari server所在的主機和集群中的所有主機上,根據使用的JDK版本選擇合適的JCE策略文件。

Oracle JDK 1.7:

http://www.oracle.com/technetwork/java/javase/downloads/jce-7-

download-432124.html

Oracle JDK 1.8:

http://www.oracle.com/technetwork/java/javase/downloads/jce8-

download-2133166.html

在Ambari Server所在主機和集群中的所有主機上,添加unlimited security policy JCE jars到目錄$AMBARI_SERVER_JAVA_HOME/jre/lib/security/下。

注意:在所有的主機上,JCE相關的包都必須解壓到配置文件/etc/ambari-server/conf/ambari.properties中屬性java.home所指定的JDK目錄下。

# JAVA_HOME=/usr/java/default # unzip -o -j -q UnlimitedJCEPolicyJDK8.zip -d $JAVA_HOME/jre/lib/security/

重啟Ambari Server(ambari server伺服器hdp140)

# service ambari-server restart

8、運行Kerberos保護嚮導

(1)確認KDC已經安全和正確配置,並且已經在集群的所有主機上配置好JCE。

(2)登錄Ambari Web,打開管理員 > Kerberos

(3)點擊啟用Kerberos,啟用安裝嚮導,選擇條件檢查

(4)提供關於KDC和管理員帳號的信息

KDC相關信息請參考配置文件/etc/krb5.conf

(5)Ambari會在集群的主機上安裝Kerberos客戶端,然後通過測試是否能創建Principal,生成Keytab和分配Keytab來測試是否能連接KDC。

自定義Hadoop使用的Kerberos identities

(6)確認你的配置。你可以通過頁面下載自動創建的包含principals和Keytabs的CSV文件。

(7)停止服務

(8)啟用Kerberos

Keytabs保存在主機的/etc/security/keytabs目錄下。

(9)啟動和測試服務

啟動和測試服務成功後點擊完成以結束Kerberos的啟用。

(10)查看已啟用的Kerberos配置

到這裡kerberos安裝完成。

高級選項:

為Ambari Server設置Kerberos(可選項)

1. 使用kadmin在你的KDC所在的主機(hdp141)為Ambari Server創建一個principal。(ambari-server為自定義名)

# kadmin.local -q "addprinc -randkey ambari-server@CESHI.COM

2. 為此principal生成一個Keytab

# kadmin.local -q "xst -k ambari.server.keytab ambari-server@CESHI.COM"

3. 將單前目錄生成的Keytab拷貝到Ambari Server所在的集群。確定該文件有合適的權限,能夠被啟動Ambari Server守護進程所訪問。

# scp ambari.server.keytab hdp140:/etc/security/keytabs/ # ll /etc/security/keytabs/ambari.server.keytab -r--r----- 1 root root 530 Dec 18 20:06 /etc/security/keytabs/ambari.server.keytab

4. 停止ambari server

# ambari-server stop

5. 運行setup-security命令,設置JAAS。標紅部分為需要設置部分。

A. 選擇3,Setup Ambari kerberos JAAS configuration

B. 輸入第一步為Ambari Server設置的principal名

C. 輸入Ambari principal的Keytab所在路徑

# ambari-server setup-security

Using python /usr/bin/python2

Security setup options...

===========================================================================

Choose one of the following options:

[1] Enable HTTPS for Ambari server.

[2] Encrypt passwords stored in ambari.properties file.

[3] Setup Ambari kerberos JAAS configuration.

[4] Setup truststore.

[5] Import certificate to truststore.

===========================================================================

Enter choice, (1-5): 3

Setting up Ambari kerberos JAAS configuration to access secured Hadoop daemons...

Enter ambari server's kerberos principal name (ambari@VRV.COM): ambari-server@VRV.COM

Enter keytab path for ambari server's kerberos principal: /etc/security/keytabs/ambari.server.keytab

Ambari Server 'setup-security' completed successfully.

重啟Ambari Server

# ambari-server restart

開始實測:

1.新建測試用戶

普通用戶需要安裝ranger(後面介紹)管理權限。

列出所有用戶

# kadmin.local #在kdc伺服器上執行

kadmin.local: listprincs #//列出所有用戶

ambari-server@CESHI.COM

.................

nn/hdp140@CESHI.COM

zookeeper/hdp142@CESHI.COM

zookeeper/hdp143@CESHI.COM

創建測試用戶

kadmin.local: addprinc test

Enter password for principal "test@CESHI.COM": ceshi123456.

Re-enter password for principal "test@CESHI.COM": ceshi123456.

Principal "test@CESHI.COM" created.

登錄驗證

# kinit test #登陸

ceshi123456.

退出登陸狀態

註銷:kdestroy

集群登錄與授權(hdfs用戶)

未使用kerberos用戶認證前執行

# hadoop dfs -ls /

使用Kerberos用戶認證

# kinit test #登陸

Password for test@CESHI.com #ceshi123456.

# hadoop dfs -ls /

此時test用戶默認有查看權限,無目錄授權

換到HDFS用戶下,初始化HDFS

查看HDFS的Kerberos用戶名

# klist -k /etc/security/keytabs/hdfs.headless.keytab

Keytab name: FILE:hdfs.headless.keytab

KVNO Principal

---- --------------------------------------------------------------------------

1 hdfs-test@CESHI.COM

1 hdfs-test@CESHI.COM

1 hdfs-test@CESHI.COM

1 hdfs-test@CESHI.COM

1 hdfs-test@CESHI.COM

初始化認證hdfs用戶

# kinit -k hdfs-test@CESHI.COM -t /etc/security/keytabs/hdfs.headless.keytab

創建目錄:hadoop fs -mkdir /test

查看目錄屬性:

改變目錄屬性:hadoop fs -chown test:hdfs /test

使用test用戶登錄

修改密碼和重新生成

#修改密碼命令cpw test(KDC server上執行)

# kadmin.local

Authenticating as principal test/admin@CESHI.COM with password.

kadmin.local: cpw test

Enter password for principal "test1@CESHI.COM": ceshi123

Re-enter password for principal "test1@CESHI.COM": ceshi123

change_password: Principal does not exist while changing password for "test@CESHI.COM".

kadmin.local: exit

生成新的多用戶使用keytab文件

創建keytab文件(生成到當前文件夾下)

案例:將Hive和HDFS的Keytab集成到同一個Keytab文件中

1. 查看所有Princs

# kadmin.local

Kadmin.local: listprincs

hbase/hdp143@CESHI.COM"

hdfs-vrvtest@CESHI.COM"

hive/hdp140@CESHI.COM"

2. 添加HDFS的Princs的Keytab到hdfs-hive.keytab

# kadmin.local

Kadmin.local: xst -norandkey -k hdfs-hive.keytab hdfs-vrvtest@CESHI.COM

3. 添加Hive的Princs的Keytab到hdfs-hive.keytab

# kadmin.local

Kadmin.local: xst -norandkey -k hdfs-hive.keytab hive/hdp140@CESHI.COM

查看生成的hdfs-hive.keytab

使用生成的Keytab文件登錄

# kinit -k -t hdfs-hive.keytab hive/hdp140@CESHI.COM

修改租期

1.修改全局租期

# vi /etc/krb5.conf

[libdefaults]

default_realm = CESHI.COM

dns_lookup_realm = false

dns_lookup_kdc = false

ticket_lifetime = 24h

#ticket 租期時間

renew_lifetime = 7d

#重新申請時間

frwardable = true

#重新啟動

# service krb5kdc restart

# service kadmin restart

2.手動修改用戶租期時間

#查看租期時間

可在kadmin命令行下用getprinc命令查看默認的最大時長,否則時長被限制在24小時,並且無法renew)

# kadmin.local

kadmin.local:getprinc hive/hdp141

Principal: hive/hdp141@CESHI

Expiration date: [never]

Last password change: Mon Dec 18 05:56:57 EST 2017

Password expiration date: [none]

Maximum ticket life: 1 day 00:00:00 #租期時間

Maximum renewable life: 0 days 00:00:00 #重新續租時間

Last modified: Mon Dec 18 05:56:57 EST 2017 (admin/admin@VRV.COM)

Last successful authentication: [never]

Last failed authentication: [never]

Failed password attempts: 0

Number of keys: 8

Key: vno 1, aes256-cts-hmac-sha1-96

Key: vno 1, aes128-cts-hmac-sha1-96

Key: vno 1, des3-cbc-sha1

Key: vno 1, arcfour-hmac

Key: vno 1, camellia256-cts-cmac

Key: vno 1, camellia128-cts-cmac

Key: vno 1, des-hmac-sha1

Key: vno 1, des-cbc-md5

#更改租期時間命令(用戶使用真實用戶替換)

modprinc -maxrenewlife 300days 用戶

modprinc -maxlife 300days 用戶

#應用例子

modprinc -maxrenewlife 300days hive/hdp141@CESHI.com

modprinc -maxlife 300days hive/hdp141@CESHI.COM

退出後,重新啟動

# service krb5kdc restart

# service kadmin restart

3.使用Spark任務測試Kerberos下的作業提交

(1)指定Spark用戶和密碼

# cd /etc/security/keytabs

[root@hdp140 keytabs]# ll

-r--r----- 1 root root 353 Oct 30 23:54 ambari.server.keytab

-r--r----- 1 hbase hadoop 313 Oct 30 23:54 hbase.headless.keytab

-r-------- 1 hbase hadoop 313 Oct 30 23:54 hbase.service.keytab

-r-------- 1 hdfs hadoop 308 Oct 30 23:54 hdfs.headless.keytab

-r--r----- 1 hive hadoop 308 Oct 30 23:54 hive.service.keytab

-r-------- 1 hdfs hadoop 298 Oct 30 23:54 nn.service.keytab

-r--r----- 1 ambari-qa hadoop 333 Oct 30 23:54 smokeuser.headless.keytab

-r-------- 1 spark hadoop 313 Oct 30 23:54 spark.headless.keytab

-r--r----- 1 root hadoop 308 Oct 30 23:54 spnego.service.keytab

# klist -k spark.headless.keytab

Keytab name: FILE:spark.headless.keytab

KVNO Principal

---- --------------------------------------------------------------------------

1 spark-test@CESHI.COM

1 spark-test@CESHI.COM

1 spark-test@CESHI.COM

1 spark-test@CESHI.COM

1 spark-test@CESHI.COM

# kinit -k spark-vrvtest@VRV.COM -t spark.headless.keytab

#指定spark用戶

[root@hdp140 keytabs]# klist

Ticket cache: FILE:/tmp/krb5cc_0

Default principal: spark-vrvtest@VRV.COM

Valid starting Expires Service principal

10/31/2017 01:08:56 11/01/2017 01:08:56 krbtgt/VRV.COM@VRV.COM

上傳Spark文件到opt

# hdfs dfs -mkdir -p /tmp/sparkwordcount/

# hdfs dfs -mkdir -p /tmp/sparkwordcount/input

# hdfs dfs -put /opt/sparkwordcountinput.txt /tmp/sparkwordcount/input

# hdfs dfs -put /opt/spark_word_count.jar /tmp/sparkwordcount/

#spark測試文件

sparkwordcountinput.txt spark_word_count.jar

Spark命令提交任務

# spark-submit \

--class com.vrv.bigdata.ml.DataExtract2 \

--master yarn \

--deploy-mode cluster \

--principal spark-test@CESHI.COM \

--keytab /etc/security/keytabs/spark.headless.keytab \

hdfs://hdp140:8020/tmp/sparkwordcount/spark_word_count.jar \

hdfs://hdp140:8020/tmp/sparkwordcount/input \

hdfs://hdp140:8020/tmp/sparkwordcount/output/spark_work_count

17/10/31 01:15:28 INFO Client:

client token: Token { kind: YARN_CLIENT_TOKEN, service: }

diagnostics: N/A

ApplicationMaster host: 192.168.2.143

ApplicationMaster RPC port: 0

queue: default

start time: 1509383715631

final status: SUCCEEDED

tracking URL: http://hdp141:8088/proxy/application_1509379053332_0014/

user: spark

17/10/31 01:15:28 INFO ShutdownHookManager: Shutdown hook called

17/10/31 01:15:28 INFO ShutdownHookManager: Deleting directory /tmp/spark-40e868df-ca58-4389-b20c-03d2717516cc

疑難問題1:

Received Exception while testing connectivity to the KDC: Algorithm AES256 not enabled

**** Host: hdp261:88 (TCP)

java.lang.IllegalArgumentException: Algorithm AES256 not enabled

at sun.security.krb5.EncryptionKey.(EncryptionKey.java:286)

at javax.security.auth.kerberos.KeyImpl.(KeyImpl.java

解決:

1. 在Ambari server所在的主機和集群中的所有主機上,根據使用的JDK版本選擇合適的JCE策略文件。

Oracle JDK 1.7:

http://www.oracle.com/technetwork/java/javase/downloads/jce-7-

download-432124.html

Oracle JDK 1.8:

http://www.oracle.com/technetwork/java/javase/downloads/jce8-

download-2133166.html

疑難問題2:

org.apache.hadoop.security.authentication.client.AuthenticationException: GSSException: Defective token detected (Mechanism level: GSSHeader did not find the right tag)

解決:

# kinit guest

Password for guest@CESHI.COM: ceshi123456.

# klist

Ticket cache: FILE:/tmp/krb5cc_0

Default principal: guest@CESHI.COM

Valid starting Expires Service principal

11/28/2017 18:30:48 11/29/2017 18:30:48 krbtgt/CESHI.COM@CESHI.COM

11/28/2017 18:31:09 11/29/2017 18:30:48 HTTP/hdp140@

11/28/2017 18:31:09 11/29/2017 18:30:48 HTTP/hdp140@CESHI.COM

參考:

http://blog.csdn.net/wulantian/article/details/42418231

http://book.51cto.com/art/200907/140533.htm

實戰到此結束。後續再更新Elasticsearch安全實戰。

總結

Hadoop集群節點數多,配置和維護一個使用Kerberos系統高性能,穩定的Hadoop集群難度非常高。

Hadoop中的HDFS是一個文件系統,用戶的認證和授權比較複雜,難度不低於Linux系統的用戶和組管理。加上Kerberos後,用戶和用戶組的管理更加複雜,通常一個合適的用戶不能訪問HDFS上的文件。

Hadoop加上Kerberos後,通常原來的用戶和文件,可能都失效導致數據流失。

近期熱文:

基於阿里雲的金融運維自動化探索之旅(附PPT&工具)

微計算實踐:從Serverless說起,談談邊緣計算的未來

四張圖帶你了解Tomcat系統架構

分布式事務主流解決方案優缺點大pk

基於支付場景的微服務高可用架構實戰

相關焦點

  • 如何快速成為一名Linux運維工程師
    2、Git版本控制,很多人可能覺得沒有必要,這個是開發才學的嘛,其實不然,今天Devops的日漸崛起,對於傳統運維工程師來說是一個挑戰,也是一個機遇。工程師們日常需要寫大量的腳本,可以使用Git來管理、備份常用代碼、腳本。3、Shell編程,寫腳本當然需要Shell啦,這也是基礎。
  • 年薪50萬的運維工程師學習成長路線
    最近看到了一篇新聞,linux之父建議找一份基於linux和開源環境的工作,確實,這已經是未來的大趨勢了。今天就來聊一聊我的想法,本人8年linux運維一線經驗,呆過很多網際網路公司,從一線運維做到運維架構師一職,也見證了中國運維行業從無人問津到可圈可點的整個演變過程。
  • Linux運維工程師真實的工作狀態到底是怎麼樣的?
    現在的運維工程師在大家眼中是個什麼樣子呢?
  • Linux運維工程師前景如何?
    Linux運維崗位描述用一句話概括就是維護Linux作業系統以及系統之上的相關軟體服務、程序代碼和企業數據使得企業能夠優質、高效、快速的為企業的客戶提供服務,從而盈利賺錢,隨著企業增長,伺服器和服務數量、要求也會成倍增加,對運維的能力和數量都有更多的要求
  • Linux系統運維工程師入門絕招放送
    運維是幹嘛的?安裝伺服器系統?重裝系統再裝系統?背鍋的?我就稀裡糊塗的,這樣報著必死的決心,考下RHCE認證,走上了Linux運維的道路,成為了一名linux運維工程師。有些心得跟大家分享下,避免小白多走冤路。Linux運維必須要掌握的工具,我列出這幾方面,這樣的話入門就基本沒問題。
  • IT運維工程師們為什麼選擇使用Linux系統
    linux自誕生之日起,便受到了全世界優秀黑客程式設計師們的百般寵愛與關注。曾經,linux似乎離我們非常遙遠;而現在,越來越多的人聽說了linux,會去討論linux發行版,會去關注linux內核。而程式設計師們更是熱衷於使用linux,在linux開發。
  • 運維工程師轉型大數據怎麼樣
    那麼在如今的數據時代,運維轉型大數據是個機會嗎?能否讓自己看到新的「曙光」呢?企業業務依託於數據和網絡的程度越來越高,必然也就意味著支撐業務的IT系統越來越龐大、複雜。運維工程師,你還撐得住嗎? 此外,隨著大數據、雲計算、人工智慧的出現,傳統的運維人員或許真的會被取代,而且,在海量的數據下,傳統的運維工程師或許將不可能及時的完成相應的工作。或許現在很多人還感受不到職場的危機,但當你真正的站到被淘汰的邊緣,你可能就會後悔,為什麼當初自己沒有及時的去轉型。
  • 「必看」Linux 運維工程師打怪升級篇
    做運維就像遊戲打怪升級,升級後知識體系和運維體系也相對變化挺大,學習了很多新的知識點。運維工程師是從一個呆逼進化為苦逼再成長為牛逼的過程,前提在於你要能忍能幹能拼,還要具有敏銳的嗅覺感知前方潮流變化。如:今年大數據,人工智慧比較火。。。
  • Linux運維工程師入門必須掌握的7個關鍵知識及必讀書目
    隨著網際網路技術的發展,Linux運維工程師的需求量也在大增。Linux作為一個全能的作業系統,想徹底搞明白作業系統的方方面面是不太可能的事情,短時間內更是不太現實的。本文針對Linux運維工程師總結了前期必須掌握的內容,大家可以有針對性的學習和練習,爭取早日成為一名優秀的運維工程師。
  • Linux就該這麼學 一名Linux運維工程師養成記
    2、Git版本控制,很多人可能覺得沒有必要,這個是開發才學的嘛,其實不然,今天Devops的日漸崛起,對於傳統運維工程師來說是一個挑戰,也是一個機遇。工程師們日常需要寫大量的腳本,可以使用Git來管理、備份常用代碼、腳本。3、Shell編程,寫腳本當然需要Shell啦,這也是基礎。
  • 網絡工程師和Linux運維工程師有什麼區別?學哪個比較好?
    網絡工程師和Linux運維工程師有什麼區別?學哪個比較好?尤其是數據中心的部署肯定部署在雲上的,導師讓我有精力的情況下一定要多去了解。在工作中,有一天突然遇到了Linux系統,公司mrtg監控的老系統是公司一位老總以前用Linux系統搭的,雖然以前聽說過Linux,但從來沒接觸過,在通過文檔完成工作後,我開始了解Linux系統,當時想著雲計算的基礎也是Linux,學習一下怎麼都不虧。
  • 你到底懂不懂什麼是Linux運維工程師?
    當調查人員告訴他們科幻電影中展示黑客高超技巧時的命令行界面正是大多數運維工程師每日工作環境時,他們發出極其一致的驚嘆。相對於普羅大眾的一無所知,技術圈對運維的態度則更偏向於黑色幽默。相較於開發等工作崗位,7*24小時待命的運維工程師總是默默無聞作為守護者,當然同時還要接受「背鍋俠」這一艱巨使命。
  • 技術博客 | 全棧工程師修煉手冊
    比如你的公司要做一款移動應用,初期的流程是開發 -> 上線 -> 運營,對應的技術能力就是前後端開發,自動化運維,數據平臺與用戶分析。當用戶數到達一定體量以後,就需要高可用架構,推薦算法等技術。你技術學習的脈絡應該順應業務的發展,這樣才有機會學以致用。那如果你身在大公司,又該怎麼做呢?
  • 成都運維工程師:安全運維之帳戶安全與服務
    帳戶安全是系統安全的第一道防線,通過刪除不必要的用戶以及對登錄進行加密與限制,可以避免因權限洩露與中間人攻擊導致的安全隱患。成都運維工程師:刪除不必要的用戶在linux系統安裝過程中,系統會建立一些不必要的用戶與用戶組,這些用戶與用戶組會成為黑客攻擊的目標,刪除它們可以有利於系統的安全。
  • 數據中心運維工程師需要具備哪些知識結構
    隨著雲計算、大數據的不斷發展,不少大型網際網路科技公司和企業機構都陸續建立了一些數據中心,可以說近些年來,數據中心出現了一個建設的高潮,像貴陽就逐漸形成了一個配套較為完備的數據中心群,行業內更有人把貴陽比喻成國內的「大機房」。
  • 運維雜談|IT運維工程師的價值
    每當我們聊到運維工程師時,人們想到的可能就是「修電腦的」 、」打雜的」,如果你這樣想說明你對運維工程師這個職業有很大的誤解,那運維工程師都起到了哪些作用呢。服務的安全性:網絡安全事件每時每刻都在發生著,一旦我們中招對一個企業來說損失是巨大的,所以從網絡設施上架的那一刻起我們就要從各個方面去預防著此類事件的發生,更改配置、關閉有安全威脅的埠,定期的對工作站、伺服器、交換機等進行安全檢查,安裝升級各種殺毒軟體等,這些工作都是繁瑣的枯燥的,但是這些工作確保證了我們網絡的安全。
  • 運維小白成神之路1-什麼是Linux運維
    比如用戶在使用購物APP時, 客戶在軟體裡可以搜索商品,查看商品介紹, 註冊帳號, 發表評論, 下單與付款等,這些數據都需要專業的性能更好的電腦(我們一般稱之為伺服器)上跑服務端程序來存放與管理. 運維工程師主要管理的就是伺服器與服務端程序。
  • 紅帽linux學哪些東西?
    Linux是一類非常優秀的開放作業系統,在這個雲計算、大數據佔據中心地位的網際網路時代,越來越多的業務正在遷移到Linux上來,隨著linux在伺服器市場上的佔有率不斷猛漲,企業對linux人才特別是RHCE的需求也在不斷的增大,掌握Linux 技能已經成為運維人員的一項基本要求,智匯雲校攜手紅帽共同打造
  • 月入過萬,關於運維工程師你必須知道的四件事
    運維這個詞對於學習通信、計算機專業的學生來說不會陌生,因為畢業後我們找的工作很有可能就是運維,但我們對運維了解有多少呢,接下來小u就跟大家聊聊運維。先來上一張運維的招聘信息,這個是在招聘網站的關於運維工程師上的一個截圖。
  • IT運維工程師的現狀
    大家都說運維就是背鍋俠,受累不討好,工資低……為了更加深入地了解這個行業特意做了一些工作(期間瀏覽了多個網站,論壇以及貼吧還加了一些IT運維相關的QQ群微信群),對IT運維人員目前的現狀進行一個總結,全部都是真實案例,作為「搞運維」的你是否也對以下情況呢?