教你如何讓spark?sql寫mysql的時候支持update操作
如何讓sparkSQL在對接mysql的時候,除了支持:Append、Overwrite、ErrorIfExists、Ignore;還要在支持update操作
1、首先了解背景
spark提供了一個枚舉類,用來支撐對接數(shù)據(jù)源的操作模式
通過源碼查看,很明顯,spark是不支持update操作的
2、如何讓sparkSQL支持update
關(guān)鍵的知識點(diǎn)就是:
我們正常在sparkSQL寫數(shù)據(jù)到mysql的時候:
大概的api是:
dataframe.write .format("sql.execution.customDatasource.jdbc") .option("jdbc.driver", "com.mysql.jdbc.Driver") .option("jdbc.url", "jdbc:mysql://localhost:3306/test?user=root&password=&useUnicode=true&characterEncoding=gbk&autoReconnect=true&failOverReadOnly=false") .option("jdbc.db", "test") .save()
那么在底層中,spark會通過JDBC方言JdbcDialect , 將我們要插入的數(shù)據(jù)翻譯成:
insert into student (columns_1 , columns_2 , ...) values (? , ? , ....)
那么通過方言解析出的sql語句就通過PrepareStatement的executeBatch(),將sql語句提交給mysql,然后數(shù)據(jù)插入;
那么上面的sql語句很明顯,完全就是插入代碼,并沒有我們期望的 update操作,類似:
UPDATE table_name SET field1=new-value1, field2=new-value2
但是mysql獨(dú)家支持這樣的sql語句:
INSERT INTO student (columns_1,columns_2)VALUES ('第一個字段值','第二個字段值') ON DUPLICATE KEY UPDATE columns_1 = '呵呵噠',columns_2 = '哈哈噠';
大概的意思就是,如果數(shù)據(jù)不存在則插入,如果數(shù)據(jù)存在,則 執(zhí)行update操作;
因此,我們的切入點(diǎn)就是,讓sparkSQL內(nèi)部對接JdbcDialect的時候,能夠生成這種sql:
INSERT INTO 表名稱 (columns_1,columns_2)VALUES ('第一個字段值','第二個字段值') ON DUPLICATE KEY UPDATE columns_1 = '呵呵噠',columns_2 = '哈哈噠';
3、改造源碼前,需要了解整體的代碼設(shè)計(jì)和執(zhí)行流程
首先是:
dataframe.write
調(diào)用write方法就是為了返回一個類:DataFrameWriter
主要是因?yàn)镈ataFrameWriter是sparksql對接外部數(shù)據(jù)源寫入的入口攜帶類,下面這些內(nèi)容是給DataFrameWriter注冊的攜帶信息
然后在出發(fā)save()操作后,就開始將數(shù)據(jù)寫入;
接下來看save()源碼:
在上面的源碼里面主要是注冊DataSource實(shí)例,然后使用DataSource的write方法進(jìn)行數(shù)據(jù)寫入
實(shí)例化DataSource的時候:
def save(): Unit = { assertNotBucketed("save") val dataSource = DataSource( df.sparkSession, className = source,//自定義數(shù)據(jù)源的包路徑 partitionColumns = partitioningColumns.getOrElse(Nil),//分區(qū)字段 bucketSpec = getBucketSpec,//分桶(用于hive) options = extraOptions.toMap)//傳入的注冊信息 //mode:插入數(shù)據(jù)方式SaveMode , df:要插入的數(shù)據(jù) dataSource.write(mode, df) }
然后就是dataSource.write(mode, df)的細(xì)節(jié),整段的邏輯就是:
根據(jù)providingClass.newInstance()去做模式匹配,然后匹配到哪里,就執(zhí)行哪里的代碼;
然后看下providingClass是什么:
拿到包路徑.DefaultSource之后,程序進(jìn)入:
那么如果是數(shù)據(jù)庫作為寫入目標(biāo)的話,就會走:dataSource.createRelation,直接跟進(jìn)源碼:
很明顯是個特質(zhì),因此哪里實(shí)現(xiàn)了特質(zhì),程序就會走到哪里了;
實(shí)現(xiàn)這個特質(zhì)的地方就是:包路徑.DefaultSource , 然后就在這里面去實(shí)現(xiàn)數(shù)據(jù)的插入和update的支持操作;
4、改造源碼
根據(jù)代碼的流程,最終sparkSQL 將數(shù)據(jù)寫入mysql的操作,會進(jìn)入:包路徑.DefaultSource這個類里面;
也就是說,在這個類里面既要支持spark的正常插入操作(SaveMode),還要在支持update;
如果讓sparksql支持update操作,最關(guān)鍵的就是做一個判斷,比如:
if(isUpdate){ sql語句:INSERT INTO student (columns_1,columns_2)VALUES ('第一個字段值','第二個字段值') ON DUPLICATE KEY UPDATE columns_1 = '呵呵噠',columns_2 = '哈哈噠'; }else{ insert into student (columns_1 , columns_2 , ...) values (? , ? , ....) }
但是,在spark生產(chǎn)sql語句的源碼中,是這樣寫的:
沒有任何的判斷邏輯,就是最后生成一個:
INSERT INTO TABLE (字段1 , 字段2....) VALUES (? , ? ...)
所以首要的任務(wù)就是 ,怎么能讓當(dāng)前代碼支持:ON DUPLICATE KEY UPDATE
可以做個大膽的設(shè)計(jì),就是在insertStatement這個方法中做個如下的判斷
def insertStatement(conn: Connection, savemode:CustomSaveMode , table: String, rddSchema: StructType, dialect: JdbcDialect) : PreparedStatement = { val columns = rddSchema.fields.map(x => dialect.quoteIdentifier(x.name)).mkString(",") val placeholders = rddSchema.fields.map(_ => "?").mkString(",") if(savemode == CustomSaveMode.update){ //TODO 如果是update,就組裝成ON DUPLICATE KEY UPDATE的模式處理 s"INSERT INTO $table ($columns) VALUES ($placeholders) ON DUPLICATE KEY UPDATE $duplicateSetting" }esle{ val sql = s"INSERT INTO $table ($columns) VALUES ($placeholders)" conn.prepareStatement(sql) } }
這樣,在用戶傳遞進(jìn)來的savemode模式,我們進(jìn)行校驗(yàn),如果是update操作,就返回對應(yīng)的sql語句!
所以按照上面的邏輯,我們代碼這樣寫:
這樣我們就拿到了對應(yīng)的sql語句;
但是只有這個sql語句還是不行的,因?yàn)樵趕park中會執(zhí)行jdbc的prepareStatement操作,這里面會涉及到游標(biāo)。
即jdbc在遍歷這個sql的時候,源碼會這樣做:
看下makeSetter:
所謂有坑就是:
insert into table (字段1 , 字段2, 字段3) values (? , ? , ?)
那么當(dāng)前在源碼中返回的數(shù)組長度應(yīng)該是3:
val setters: Array[JDBCValueSetter] = rddSchema.fields.map(_.dataType) .map(makeSetter(conn, dialect, _)).toArray
但是如果我們此時支持了update操作,既:
insert into table (字段1 , 字段2, 字段3) values (? , ? , ?) ON DUPLICATE KEY UPDATE 字段1 = ?,字段2 = ?,字段3=?;
那么很明顯,上面的sql語句提供了6個? , 但在規(guī)定字段長度的時候只有3
這樣的話,后面的update操作就無法執(zhí)行,程序報(bào)錯!
所以我們需要有一個 識別機(jī)制,既:
if(isupdate){ val numFields = rddSchema.fields.length * 2 }else{ val numFields = rddSchema.fields.length }
row[1,2,3] setter(0,1) //index of setter , index of row setter(1,2) setter(2,3) setter(3,1) setter(4,2) setter(5,3)
所以在prepareStatment中的占位符應(yīng)該是row的兩倍,而且應(yīng)該是類似這樣的一個邏輯
因此,代碼改造前樣子:
改造后的樣子:
try { if (supportsTransactions) { conn.setAutoCommit(false) // Everything in the same db transaction. conn.setTransactionIsolation(finalIsolationLevel) } // val stmt = insertStatement(conn, table, rddSchema, dialect) //此處采用最新自己的sql語句,封裝成prepareStatement val stmt = conn.prepareStatement(sqlStmt) println(sqlStmt) /** * 在mysql中有這樣的操作: * INSERT INTO user_admin_t (_id,password) VALUES ('1','第一次插入的密碼') * INSERT INTO user_admin_t (_id,password)VALUES ('1','第一次插入的密碼') ON DUPLICATE KEY UPDATE _id = 'UpId',password = 'upPassword'; * 如果是下面的ON DUPLICATE KEY操作,那么在prepareStatement中的游標(biāo)會擴(kuò)增一倍 * 并且如果沒有update操作,那么他的游標(biāo)是從0開始計(jì)數(shù)的 * 如果是update操作,要算上之前的insert操作 * */ //makeSetter也要適配update操作,即游標(biāo)問題 ? val isUpdate = saveMode == CustomSaveMode.Update val setters: Array[JDBCValueSetter] = isUpdate match { case true => val setters: Array[JDBCValueSetter] = rddSchema.fields.map(_.dataType) .map(makeSetter(conn, dialect, _)).toArray Array.fill(2)(setters).flatten case _ => rddSchema.fields.map(_.dataType) val numFieldsLength = rddSchema.fields.length val numFields = isUpdate match{ case true => numFieldsLength *2 case _ => numFieldsLength val cursorBegin = numFields / 2 try { var rowCount = 0 while (iterator.hasNext) { val row = iterator.next() var i = 0 while (i < numFields) { if(isUpdate){ //需要判斷當(dāng)前游標(biāo)是否走到了ON DUPLICATE KEY UPDATE i < cursorBegin match{ //說明還沒走到update階段 case true => //row.isNullAt 判空,則設(shè)置空值 if (row.isNullAt(i)) { stmt.setNull(i + 1, nullTypes(i)) } else { setters(i).apply(stmt, row, i, 0) } //說明走到了update階段 case false => if (row.isNullAt(i - cursorBegin)) { //pos - offset stmt.setNull(i + 1, nullTypes(i - cursorBegin)) setters(i).apply(stmt, row, i, cursorBegin) } }else{ if (row.isNullAt(i)) { stmt.setNull(i + 1, nullTypes(i)) } else { setters(i).apply(stmt, row, i ,0) } //滾動游標(biāo) i = i + 1 } stmt.addBatch() rowCount += 1 if (rowCount % batchSize == 0) { stmt.executeBatch() rowCount = 0 } if (rowCount > 0) { stmt.executeBatch() } finally { stmt.close() conn.commit() committed = true Iterator.empty } catch { case e: SQLException => val cause = e.getNextException if (cause != null && e.getCause != cause) { if (e.getCause == null) { e.initCause(cause) } else { e.addSuppressed(cause) throw e } finally { if (!committed) { // The stage must fail. We got here through an exception path, so // let the exception through unless rollback() or close() want to // tell the user about another problem. if (supportsTransactions) { conn.rollback() conn.close() } else { // The stage must succeed. We cannot propagate any exception close() might throw. try { conn.close() } catch { case e: Exception => logWarning("Transaction succeeded, but closing failed", e)
// A `JDBCValueSetter` is responsible for setting a value from `Row` into a field for // `PreparedStatement`. The last argument `Int` means the index for the value to be set // in the SQL statement and also used for the value in `Row`. //PreparedStatement, Row, position , cursor private type JDBCValueSetter = (PreparedStatement, Row, Int , Int) => Unit ? private def makeSetter( conn: Connection, dialect: JdbcDialect, dataType: DataType): JDBCValueSetter = dataType match { case IntegerType => (stmt: PreparedStatement, row: Row, pos: Int,cursor:Int) => stmt.setInt(pos + 1, row.getInt(pos - cursor)) case LongType => stmt.setLong(pos + 1, row.getLong(pos - cursor)) case DoubleType => stmt.setDouble(pos + 1, row.getDouble(pos - cursor)) case FloatType => stmt.setFloat(pos + 1, row.getFloat(pos - cursor)) case ShortType => stmt.setInt(pos + 1, row.getShort(pos - cursor)) case ByteType => stmt.setInt(pos + 1, row.getByte(pos - cursor)) case BooleanType => stmt.setBoolean(pos + 1, row.getBoolean(pos - cursor)) case StringType => // println(row.getString(pos)) stmt.setString(pos + 1, row.getString(pos - cursor)) case BinaryType => stmt.setBytes(pos + 1, row.getAs[Array[Byte]](pos - cursor)) case TimestampType => stmt.setTimestamp(pos + 1, row.getAs[java.sql.Timestamp](pos - cursor)) case DateType => stmt.setDate(pos + 1, row.getAs[java.sql.Date](pos - cursor)) case t: DecimalType => stmt.setBigDecimal(pos + 1, row.getDecimal(pos - cursor)) case ArrayType(et, _) => // remove type length parameters from end of type name val typeName = getJdbcType(et, dialect).databaseTypeDefinition .toLowerCase.split("\\(")(0) val array = conn.createArrayOf( typeName, row.getSeq[AnyRef](pos - cursor).toArray) stmt.setArray(pos + 1, array) case _ => (_: PreparedStatement, _: Row, pos: Int,cursor:Int) => throw new IllegalArgumentException( s"Can't translate non-null value for field $pos") }
完整代碼:
https://github.com/niutaofan/bazinga
到此這篇關(guān)于教你如何讓spark sql寫mysql的時候支持update操作的文章就介紹到這了,更多相關(guān)spark sql寫mysql支持update內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
相關(guān)文章
MySQL級聯(lián)復(fù)制下如何進(jìn)行大表的字段擴(kuò)容
這篇文章主要介紹了MySQL級聯(lián)復(fù)制下進(jìn)行大表的字段擴(kuò)容,庫表信息環(huán)境是Mysql 8.0.22,本文給大家介紹的非常詳細(xì),對大家的學(xué)習(xí)或工作具有一定的參考借鑒價值,需要的朋友可以參考下2023-04-04mysql 8.0 找不到my.ini配置文件以及報(bào)sql_mode=only_full_group
MySQL5.7.5及以上版本啟用ONLY_FULL_GROUP_BYSQL模式可能導(dǎo)致的問題,本文就來介紹一下找不到my.ini配置文件的解決方法,感興趣的可以了解一下2024-08-08