Linux(CentOS)用split命令分割文件

大文件分割split
服務器君一共花費了121.743 ms進行了5次數據庫查詢,努力地為您提供了這個頁面。
試試閱讀模式?希望聽取您的建議

在 Linux 里,稍加不注意有可能會產生很大體積的日志文件,哪怕幾百M,拖下來分析也很浪費時間,這個時候,如果可以把文件切割成 N 個小文件,拿最后一個文件就可以看到最近的日志了。有一些手段,比如用 shell 把日志按每天生成等等,但是不是這里的討論范圍。

CentOS 里切割大文件的命令如下:

split [OPTION] [INPUT [PREFIX]]

選項如下:

  • -a :?指定后綴長度
  • -b?:?每個文件多少字節
  • -d?:?使用數字后綴而不是字母
  • -l?:?指定每個文件的行數

比如我想讓后綴長度為 2,即 -a 2。用數字后綴 -d。每個文件 10M,即 -b 10m。命令可以設計如下:

split -a 2 -d -b 10m /var/lib/mysql/general.log nowamagic

會在 /root 文件夾下生成下面的切割文件:

nowamagic00
nowamagic01
nowamagic02
nowamagic03
nowamagic04
nowamagic05
nowamagic06
nowamagic07
nowamagic08
nowamagic09

除了最后一個文件不是10M(有可能恰好10M,不過幾率很?。?,其它都是。

很好懂,這里記錄一下,方便有需要的人。

本文地址:http://www.824886.live/librarys/veda/detail/2495,歡迎訪問原出處。

不打個分嗎?

轉載隨意,但請帶上本文地址:

http://www.824886.live/librarys/veda/detail/2495

如果你認為這篇文章值得更多人閱讀,歡迎使用下面的分享功能。
小提示:您可以按快捷鍵 Ctrl + D,或點此 加入收藏。

大家都在看

閱讀一百本計算機著作吧,少年

很多人覺得自己技術進步很慢,學習效率低,我覺得一個重要原因是看的書少了。多少是多呢?起碼得看3、4、5、6米吧。給個具體的數量,那就100本書吧。很多人知識結構不好而且不系統,因為在特定領域有一個足夠量的知識量+足夠良好的知識結構,系統化以后就足以應對大量未曾遇到過的問題。

奉勸自學者:構建特定領域的知識結構體系的路徑中再也沒有比學習該專業的專業課程更好的了。如果我的知識結構體系足以囊括面試官的大部分甚至吞并他的知識結構體系的話,讀到他言語中的一個詞我們就已經知道他要表達什么,我們可以讓他坐“上位”畢竟他是面試官,但是在知識結構體系以及心理上我們就居高臨下。

所以,閱讀一百本計算機著作吧,少年!

《算法導論(原書第2版)》 科曼(Cormen T.H.) (作者), 等 (作者, 譯者), 潘金貴 (譯者)

《算法導論(原書第2版)》一書深入淺出,全面地介紹了計算機算法。對每一個算法的分析既易于理解又十分有趣,并保持了數學嚴謹性。本書的設計目標全面,適用于多種用途。涵蓋的內容有:算法在計算中的作用,概率分析和隨機算法的介紹。本書專門討論了線性規劃,介紹了動態規劃的兩個應用,隨機化和線性規劃技術的近似算法等,還有有關遞歸求解、快速排序中用到的劃分方法與期望線性時間順序統計算法,以及對貪心算法元素的討論。本書還介紹了對強連通子圖算法正確性的證明,對哈密頓回路和子集求和問題的NP完全性的證明等內容。全書提供了900多個練習題和思考題以及敘述較為詳細的實例研究。

更多計算機寶庫...

云南快乐十分走势一定牛 福建快3开奖号码 熊猫麻将有挂吗 jdb电子龙王捕鱼2技巧 安徽快3一定牛 pc蛋蛋网赚 内蒙古11选5开奖结果查询一定牛 申城棋牌室 下载 中国重工股票吧 追光娱乐破解版下载 炒股平台