使用Java 壓縮文件打包tar.gz 包的詳細(xì)教程
一、背景
最近,小哈主要在負(fù)責(zé)日志中臺的開發(fā)工作, 等等,啥是日志中臺?

俺只知道中臺概念,這段時間的確很火,但是日志中臺又是用來干啥的?
這里小哈盡量地通俗的說下日志中臺的職責(zé),再說日志中臺之前,我們先扯點(diǎn)別的?

相信大家對集中式日志平臺 ELK 都知道一些,生產(chǎn)環(huán)境中, 稍復(fù)雜的架構(gòu),服務(wù)一般都是集群部署,這樣,日志就會分散在每臺服務(wù)器上,一旦發(fā)生問題,想要查看日志就會非常繁瑣,你需要登錄每臺服務(wù)器找日志,因為你不確定請求被打到哪個節(jié)點(diǎn)上。另外,任由開發(fā)人員登錄服務(wù)器查看日志本身就存在安全隱患,不小心執(zhí)行了 rm -rf * 咋辦?
通過 ELK , 我們可以方便的將日志收集到一處(Elasticsearch 集群)來進(jìn)行多維度的分析。
但是部署高性能、高可用的 ELK 是有門檻的,業(yè)務(wù)組想要快速的擁有集中式日志分析的能力,往往需要經(jīng)過前期的技術(shù)調(diào)研,測試,踩坑,才能將這個平臺搭建起來。
日志中臺的使命就是讓業(yè)務(wù)線能夠快速擁有這種能力,只需傻瓜式的在日志平臺完成接入操作即可。

臭嗨!說了這么多,跟你這篇文章的主題有啥關(guān)系?
額,小哈這就進(jìn)入主題。
既然想統(tǒng)一管理日志,總得將這些分散的日志采集起來吧,那么,就需要一個日志采集器,Logstash 和 Filebeat 都有采集日志的能力,但是 Filebeat 相較于 Logstash 的笨重, 它更輕量級,幾乎零占用服務(wù)器系統(tǒng)資源,這里我們選型 Filebeat。
業(yè)務(wù)組在日志平臺完成相關(guān)接入流程后,平臺會提供一個采集器包。接入方需要做的就是,下載這個采集器包并扔到指定服務(wù)器上,解壓運(yùn)行,即可開始采集日志,然后,就可以在日志平臺的管控頁面分析&搜索這些被收集的日志了。
這個 Filebeat 采集器包里面,包含了采集日志文件路徑,輸出到 Kafka 集群,以及一些個性化的采集規(guī)則等等。
怎么樣?是不是感覺很棒呢?
二、如何通過 Java 打包文件?
2.1 添加 Maven 依賴
<dependency> <groupId>org.apache.commons</groupId> <artifactId>commons-compress</artifactId> <version>1.12</version> </dependency>
2.2 打包核心代碼
通過 Apache compress 工具打包思路大致如下:
①:創(chuàng)建一個 FileOutputStream 到輸出文件(.tar.gz)文件。
②:創(chuàng)建一個GZIPOutputStream,用來包裝FileOutputStream對象。
③:創(chuàng)建一個TarArchiveOutputStream,用來包裝GZIPOutputStream對象。
④:接著,讀取文件夾中的所有文件。
⑤:如果是目錄,則將其添加到 TarArchiveEntry。
⑥:如果是文件,依然將其添加到 TarArchiveEntry 中,然后還需將文件內(nèi)容寫入 TarArchiveOutputStream 中。
接下來,直接上代碼:
import org.apache.commons.compress.archivers.tar.TarArchiveEntry;
import org.apache.commons.compress.archivers.tar.TarArchiveOutputStream;
import org.apache.commons.io.IOUtils;
import java.io.*;
import java.util.zip.GZIPOutputStream;
/**
* @author 犬小哈 (公眾號: 小哈學(xué)Java)
* @date 2019-07-15
* @time 16:15
* @discription
**/
public class TarUtils {
/**
* 壓縮
* @param sourceFolder 指定打包的源目錄
* @param tarGzPath 指定目標(biāo) tar 包的位置
* @return
* @throws IOException
*/
public static void compress(String sourceFolder, String tarGzPath) throws IOException {
createTarFile(sourceFolder, tarGzPath);
}
private static void createTarFile(String sourceFolder, String tarGzPath) {
TarArchiveOutputStream tarOs = null;
try {
// 創(chuàng)建一個 FileOutputStream 到輸出文件(.tar.gz)
FileOutputStream fos = new FileOutputStream(tarGzPath);
// 創(chuàng)建一個 GZIPOutputStream,用來包裝 FileOutputStream 對象
GZIPOutputStream gos = new GZIPOutputStream(new BufferedOutputStream(fos));
// 創(chuàng)建一個 TarArchiveOutputStream,用來包裝 GZIPOutputStream 對象
tarOs = new TarArchiveOutputStream(gos);
// 若不設(shè)置此模式,當(dāng)文件名超過 100 個字節(jié)時會拋出異常,異常大致如下:
// is too long ( > 100 bytes)
// 具體可參考官方文檔: http://commons.apache.org/proper/commons-compress/tar.html#Long_File_Names
tarOs.setLongFileMode(TarArchiveOutputStream.LONGFILE_POSIX);
addFilesToTarGZ(sourceFolder, "", tarOs);
} catch (IOException e) {
e.printStackTrace();
}finally{
try {
tarOs.close();
} catch (IOException e) {
e.printStackTrace();
}
}
}
public static void addFilesToTarGZ(String filePath, String parent, TarArchiveOutputStream tarArchive) throws IOException {
File file = new File(filePath);
// Create entry name relative to parent file path
String entryName = parent + file.getName();
// 添加 tar ArchiveEntry
tarArchive.putArchiveEntry(new TarArchiveEntry(file, entryName));
if (file.isFile()) {
FileInputStream fis = new FileInputStream(file);
BufferedInputStream bis = new BufferedInputStream(fis);
// 寫入文件
IOUtils.copy(bis, tarArchive);
tarArchive.closeArchiveEntry();
bis.close();
} else if (file.isDirectory()) {
// 因為是個文件夾,無需寫入內(nèi)容,關(guān)閉即可
tarArchive.closeArchiveEntry();
// 讀取文件夾下所有文件
for (File f : file.listFiles()) {
// 遞歸
addFilesToTarGZ(f.getAbsolutePath(), entryName + File.separator, tarArchive);
}
}
}
public static void main(String[] args) throws IOException {
// 測試一波,將 filebeat-7.1.0-linux-x86_64 打包成名為 filebeat-7.1.0-linux-x86_64.tar.gz 的 tar 包
compress("/Users/a123123/Work/filebeat-7.1.0-linux-x86_64", "/Users/a123123/Work/tmp_files/filebeat-7.1.0-linux-x86_64.tar.gz");
}
}
至于,代碼每行的作用,小伙伴們可以看代碼注釋,說的已經(jīng)比較清楚了。
接下來,執(zhí)行 main 方法,測試一下效果,看看打包是否成功:

生成采集器 tar.gz 包成功后,業(yè)務(wù)組只需將 tar.gz 下載下來,并扔到指定服務(wù)器,解壓運(yùn)行即可完成采集任務(wù)啦~

三、結(jié)語
本文主要還是介紹如何通過 Java 來完成打包功能,關(guān)于 ELK 相關(guān)的知識,小哈會在后續(xù)的文章中分享給大家,本文只是提及一下,歡迎小伙伴們持續(xù)關(guān)注喲,下期見~
到此這篇關(guān)于使用Java 壓縮文件打包tar.gz 包的詳細(xì)教程的文章就介紹到這了,更多相關(guān)Java 壓縮文件打包tar.gz 包內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
相關(guān)文章
Spring Boot使用RestTemplate消費(fèi)REST服務(wù)的幾個問題記錄
這篇文章主要介紹了Spring Boot使用RestTemplate消費(fèi)REST服務(wù)的幾個問題記錄,小編覺得挺不錯的,現(xiàn)在分享給大家,也給大家做個參考。一起跟隨小編過來看看吧2018-06-06
Java實現(xiàn)FIFO任務(wù)調(diào)度隊列策略
在工作中,很多高并發(fā)的場景中,我們會用到隊列來實現(xiàn)大量的任務(wù)請求。當(dāng)任務(wù)需要某些特殊資源的時候,我們還需要合理的分配資源,讓隊列中的任務(wù)高效且有序完成任務(wù)。本文將為大家介紹通過java實現(xiàn)FIFO任務(wù)調(diào)度,需要的可以參考一下2021-12-12
SpringBoot+Echarts實現(xiàn)請求后臺數(shù)據(jù)顯示餅狀圖
這篇文章主要介紹了SpringBoot+Echarts實現(xiàn)請求后臺數(shù)據(jù)顯示餅狀圖,文中示例代碼介紹的非常詳細(xì),具有一定的參考價值,感興趣的小伙伴們可以參考一下2019-12-12
SpringBoot詳解MySQL如何實現(xiàn)讀寫分離
當(dāng)響應(yīng)的瓶頸在數(shù)據(jù)庫的時候,就要考慮數(shù)據(jù)庫的讀寫分離,當(dāng)然還可以分庫分表,那是單表數(shù)據(jù)量特別大,當(dāng)單表數(shù)據(jù)量不是特別大,但是請求量比較大的時候,就要考慮讀寫分離了.具體的話,還是要看自己的業(yè)務(wù)...如果還是很慢,那就要分庫分表了...我們這篇就簡單講一下讀寫分離2022-09-09
詳解Intellij IDEA 2017 debug斷點(diǎn)調(diào)試技巧(總結(jié))
這篇文章主要介紹了詳解Intellij IDEA 2017 debug斷點(diǎn)調(diào)試技巧(總結(jié)),小編覺得挺不錯的,現(xiàn)在分享給大家,也給大家做個參考。一起跟隨小編過來看看吧2017-11-11
tdesign的文件上傳功能實現(xiàn)(微信小程序+idea的springboot)
這篇文章主要介紹了tdesign的文件上傳(微信小程序+idea的springboot)的相關(guān)知識,本文通過圖文實例代碼相結(jié)合給大家介紹的非常詳細(xì),對大家的學(xué)習(xí)或工作具有一定的參考借鑒價值,需要的朋友參考下吧2023-09-09

