解決Python計(jì)算矩陣乘向量,矩陣乘實(shí)數(shù)的一些小錯(cuò)誤
計(jì)算:Ax-b
A: 2*2
x: 2*1
b: 2*1
so, Ax-b: 2*1
if __name__ == "__main__": A = np.array([[4.0, 1.0], [1.0, 3.0]]) b = np.array([[1.0], [2.0]]) x_0 = np.array([[2.0], [1.0]]) r_k = A * x_0 - b print(r_k)
錯(cuò)誤?。?!
修改:
if __name__ == "__main__": A= mat([[4.0, 1.0], [1.0, 3.0]]) b = mat([[1.0], [2.0]]) x_0 = mat([[2.0], [1.0]]) r_k = A * x_0 - b print(r_k)
if __name__ == "__main__": A= mat([[4.0, 1.0], [1.0, 3.0]]) b = mat([[1.0], [2.0]]) x_k = mat([[2.0], [1.0]]) p_k = -x_k # 2行1列 r_k = A * x_k - b # 2行1列 alpha_k = (np.transpose(r_k) * r_k) / (np.transpose(p_k) * A * p_k) # 1行1列 ----------------------------------------------- x_k = x_k + alpha_k * p_k #2行1列 ?。。?!這里報(bào)錯(cuò) ----------------------------------------------- print(x_k)
修改:
if __name__ == "__main__": A= mat([[4.0, 1.0], [1.0, 3.0]]) b = mat([[1.0], [2.0]]) x_k = mat([[2.0], [1.0]]) p_k = -x_k # 2*1 r_k = A * x_k - b # 2*1 alpha_k = (np.transpose(r_k) * r_k) / (np.transpose(p_k) * A * p_k) # 1*1 ----------------------------------------------- x_k = x_k + p_k *alpha_k ----------------------------------------------- print(x_k)
以上這篇解決Python計(jì)算矩陣乘向量,矩陣乘實(shí)數(shù)的一些小錯(cuò)誤就是小編分享給大家的全部?jī)?nèi)容了,希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。
相關(guān)文章
對(duì)Keras自帶Loss Function的深入研究
這篇文章主要介紹了對(duì)Keras自帶Loss Function的深入研究,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。如有錯(cuò)誤或未考慮完全的地方,望不吝賜教2021-05-05Django數(shù)據(jù)庫(kù)操作之save與update的使用
這篇文章主要介紹了Django數(shù)據(jù)庫(kù)操作之save與update的使用,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2020-04-04python內(nèi)置模塊collections知識(shí)點(diǎn)總結(jié)
這篇文章主要介紹了python內(nèi)置模塊collections知識(shí)點(diǎn)總結(jié),有興趣的朋友們學(xué)習(xí)下。2019-12-12深入理解Python 關(guān)于supper 的 用法和原理
這篇文章主要介紹了Python 關(guān)于supper 的 用法和原理分析,非常不錯(cuò),具有參考借鑒價(jià)值,需要的朋友參考下吧2018-02-02matlab灰度圖像調(diào)整及imadjust函數(shù)的用法詳解
這篇文章主要介紹了matlab圖像灰度調(diào)整及imadjust函數(shù)的用法詳解,本文通過(guò)實(shí)例代碼給大家介紹的非常詳細(xì),具有一定的參考借鑒價(jià)值,需要的朋友可以參考下2020-02-02