Transformation Matrix: Eigenvalues & Eigenvectors "คุณสมบัติ"
ขอกำหนดข้อตกลงบางอย่างก่อนนะ ไม่อยากจะเขียนอะไรยั้วเยี้ย ...
- A เป็นเมตริกซ์จัตุรัสที่มีมิติเท่ากับ n × n และมี eigenvector
- Ai คือเวกเตอร์ของ แถว ที่ i ของ A (สังเกตว่า แถว เรียงอยู่ในแนวนอน แต่ถือว่า Ai เป็นเมตริกซ์แนวตั้ง) ดังนั้น A = ( A1 : A2 : A3 : ... : An )
คุณสมบัติพื้นฐาน ที่สำคัญ ๆ ของ eigenvalue และ eigenvector ก็คือ
λ เป็น Eigenvalue ของ A ก็ต่อเมื่อ det(A - λI) = 0
สมมติว่า u เป็น eigenvector ของ A และมี eigenvalue เป็น λ จากนิยาม เราจะรู้ว่า
Au = λu
Au - λu = 0
Au - λu = 0
จาก Iu = u
Au - λIu = 0
จากคุณสมบัติการกระจายของเมตริกซ์
(A - λI)u = 0
ได้ระบบสมการเชิงเส้น n ตัวแปร ที่พจน์ของค่าคงที่ทางขวาเป็น 0 หมด
เนื่องจากเราสนใจเฉพาะกรณี u ≠ 0 แสดงว่า สามารถเลือก u ที่ทำให้ (A - λI)u = 0 ได้ มันก็แปลว่า
เซตของเวกเตอร์ n เส้น จากแต่ละแถวของ A - λI มีคุณสมบัติ linear dependency
ซึ่งประโยคนี้ เทียบเท่ากับ
det(A - λI) = 0
เผื่อลืม: เรื่องของ det กับคุณสมบัติ linear dependency มีอยู่ใน 3 เรื่องนี้นะ
- ตามหาความหมายของ Determinant: Linear Combination
- Discrete: Linear Dependency
- Continuous: Linear Dependency
จริง ๆ แล้ว จำนวน Eigenvector เป็นอนันต์
เหมือนกับโกหกกันไปแล้วทีนึงนะ ว่าปกติ จะมี eigenvector อยู่ (ไม่เกิน) n เส้น ... :P
จริง ๆ มันก็ไม่ใช่โกหกอะนะ เพราะมีคำว่า "ปกติ" อยู่ :D ... จริง ๆ มันขึ้นกับนิยามมากกว่าแหละ ลองดูนี่สิ
Au = λu
ถ้าเราเอาจำนวนจริง c ≠ 0 คูณเข้าไปทั้งสองข้าง
cAu = cλu
จากคุณสมบัติพื้นฐานของเมตริกซ์และเวกเตอร์ ...
A(cu) = λ(cu)
เห็นมั้ยว่า ถ้า u เป็น eigenvector แล้ว cu ก็เป็น eigenvector แต่ว่าเวกเตอร์พวกนี้มันขนานกัน บางคนก็เลยไม่สนใจไง ถือว่ามันเป็นพวกเดียว ๆ กัน นับ 1 (หรือจะบอกว่า นับแต่ unit eigenvector ก็ได้)
แต่มันก็มีความไม่ปกติที่ไม่ได้มาจากนิยามด้วยนะ ลองดูกรณีที่ eigenvector สองตัวมี eigenvalue เท่ากันซักหน่อย ...
Au = λu
Av = λv
⇓
A(pu + qv) = λ(pu + qv)
ดังนั้น pu + qv ก็เป็น eigenvector
Av = λv
⇓
A(pu + qv) = λ(pu + qv)
ดังนั้น pu + qv ก็เป็น eigenvector
ผลรวมเชิงเส้นของ eigenvector พวกนี้ ก็เป็น eigenvector หมดเลย!!!
แนะแนวการมอง
สมมติว่า E เป็นเซตของ eigenvector ทั้งหมดของ A และเราต้องการเลือก eigenvector กลุ่มนึง (ให้เป็นเซต S) ซึ่งมีคุณสมบัติว่า span(E) = span(S) และจำนวนสมาชิกของ S น้อยที่สุด
คุณสมบัติที่สำคัญอย่างแรกของ E (และ S) ก็คือ ถ้า x ∈ span(E) แล้ว Ax ∈ span(E) ด้วย เพราะว่า
A(a1e1 + a2e2 + a3e3 + ... + amem)
= a1Ae1 + a2Ae2 + a3Ae3 + ... + amAem
= λ1a1e1 + λ2a2e2 + λ3a3e3 + ... + λmamem ∈ span(E)
เมื่อ m = | E |
= a1Ae1 + a2Ae2 + a3Ae3 + ... + amAem
= λ1a1e1 + λ2a2e2 + λ3a3e3 + ... + λmamem ∈ span(E)
เมื่อ m = | E |
ถ้า A เป็นเมตริกซ์สมมาตรแล้ว x จะตั้งฉากกับ e ∈ E ก็ต่อเมื่อ Ax ตั้งฉากกับ e
ถ้า A เป็นเมตริกซ์สมมาตร เราจะรู้ว่า
A = AT
สมมติว่า e เป็น eigenvector ที่มี eigenvalue เป็น λ เราจะรู้ว่า
Ae = λe
แล้วก็สมมติอีกว่า x เป็นเวกเตอร์ที่ตั้งฉากกับ e
x ⋅ e = 0
เพื่อให้เขียนง่ายขึ้น เราจะเขียนแทนผลคูณภายในด้วยการคูณเมตริกซ์ แบบนี้ ...
xTe = 0
จากสมการแรก ถ้าเราเอา xT คูณทางซ้าย จะได้เป็น
xTAe = λxTe
xTAe = 0
xTAe = 0
ซึ่ง ถ้าใส่ transpose เข้าไป จะกลายเป็น
eTATx = 0
แต่เนื่องจาก A = AT ดังนั้น
eTAx = 0
แสดงว่า Ax ตั้งฉากกับ e ด้วย
ส่วนการพิสูจน์ย้อนกลับว่า "ถ้า Ax ตั้งฉากกับ e แล้ว x ตั้งฉากกับ e ด้วย" ก็ทำย้อนกลับได้ง่าย ๆ เหมือนกัน ... ไม่เขียนให้ดูแล้วนะ
การสร้าง Orthonormal Basis จาก Eigenvector
จริง ๆ เราสามารถหาเซต S ของ eigenvector ที่ตั้งฉากกันและเป็น basis ที่สมบูรณ์ (span(S) = span(E)) ได้จากแนวคิดที่แล้ว โดยคิดว่า ถ้าเราหา eigenvector ได้แล้วตัวนึง เราก็ตัดเวกเตอร์ทั้งหมดที่ไม่ตั้งฉากกับ eigenvector ตัวนั้นทิ้งจากการพิจารณาได้ ดังนั้น eigenvector ตัวต่อ ๆ ไปที่หาได้ มันจะตั้งฉากกับตัวก่อนหน้าทั้งหมด
ที่เอามาให้ดูต่อไปนี้ เป็นอีกวิธีนึงสำหรับพิสูจน์ การมีอยู่จริงของ orthonormal basis จาก eigenvector โดยใช้หลักการที่ว่า ถ้าเซต S ของ eigenvector ยังไม่เป็น basis ที่สมบูรณ์ (คือ span(S) ≠ span(E)) เราจะสามารถหา e ∈ E - S ที่ตั้งฉากกับสมาชิกทุกตัวใน S ได้
สมมติว่า u กับ v เป็น eigenvector สองตัวที่มี eigenvalue เป็น λ กับ μ ตามลำดับ
Au = λu
Av = μv
Av = μv
เติมผลคูณภายในเข้าไปแบบนี้
vTAu = λvTu
uTAv = μuTv
uTAv = μuTv
เอาอันล่างมา transpose จะได้
vTATu = μvTu
เนื่องจาก A = AT ฝั่งซ้ายของสมการนี้ จะไปเท่ากับสมการข้างบน ดังนั้น
λvTu = μvTu
ซึ่งแปลว่า λ = μ หรือ vTu = 0
ถึงตรงนี้ บางคนอาจจะเห็นว่า มันคล้าย ๆ กับบทพิสูจน์เรื่องที่แล้วเลย ... ถูกแล้วหละ จริง ๆ มันคืออันเดียวกันเลย
ถ้า vTu = 0 มันก็แปลว่า u ตั้งฉากกับ v อยู่แล้ว ... ส่วนอีกกรณีนึง ...
ถ้า λ = μ
เราพิสูจน์ไปแล้วว่า
w = pu + qv จะเป็น eigenvector ด้วย
ซึ่งถ้า u กับ v ไม่ขนานกัน เราจะสามารถหา w ที่ตั้งฉากกับ u ได้แน่ ๆ
8 Comments:
ก็ยังมีของดิงอยู่ กลิ่นโชยขึ้น แสดงว่าเริ่มได้ที่!!
ดอง*
คือผมหา eigenvalue และ eigenvector ของ matrix A แล้ว ได้ ออกมาเป็น complex conjugate ครับ ที่หาก็เพื่อจะนำไปวิเคราะห์เสถียรภาพต่อไป อยากทราบว่า กรณี ที่เป็น complex conjugate เนี่ยครับมันเป็จำนวนจินตภาพ แล้วความหมายทางกายภาพมันเป็นอย่างไร เรา จะวิเคราะห์เสถียรภาพได้หรือไม่ หรือ ถ้า ใช้ SVD (Singular Value Decomposition) แทนจะแตกต่างกันอย่างไรครับ รบกวนด้วยครับ
โดยทั่วไปควรจะใช้ singular value ในการวิเคราะห์เสถียรภาพมากกว่าครับ เพราะค่า singular value ที่สูงที่สุด เป็นอัตราส่วนของความยาวของ Av ต่อความยาวของ v ที่สูงที่สุด
*****จะใช้ singular value ในการวิเคราะห์เสถียรภาพมากกว่าครับ เพราะค่า singular value ที่สูงที่สุด เป็นอัตราส่วนของความยาวของ Av ต่อความยาวของ v ที่สูงที่สุด*****
ช่วยขยายความได้มั๊ยครับ หรือจะหาอ่านเพิ่มเติมได้ที่ใหน คร๊าบบบ จักเป็นพระคุณ ยิง เลยครับ
อันนี้ต้องทำความเข้าใจกับ SVD ก่อน ผมคิดว่า wikipedia มีเนื้อหาที่ดีมากนะครับ แต่บางส่วนก็อาจจะซับซ้อนสำหรับคนไม่คุ้นเคย
ถ้าเอาคร่าว ๆ สมมติก่อนว่า A มีมิติ m x n ผลของ SVD (แบบมาตรฐาน) คือ จะแตก A ออกเป็นเมทริกซ์สามอันคูณกัน A = U E V โดยแต่ละเมทริกซ์มีคุณสมบัติคือ
1. U เป็น unitary matrix ที่มีมิติ m x m
2. E เป็น diagonal matrix ที่สมาชิกเป็นจำนวนจริงไม่ติดลบ มีมิติ m x n (คือ เหมือนกับ A) ที่เรียกว่า diagonal matrix ทั้ง ๆ ที่อาจจะไม่เป็นจัตุรัสอาจจะแปลก ๆ หน่อย แต่ความหมายก็คือ มีสมาชิกที่ไม่ใช่ศูนย์เฉพาะที่ตำแหน่ง (i, i) นะครับ (1 <= i <= min{m,n})
3. V เป็น unitary matrix ที่มีมิติ n x n
เราเรียกตัวเลขที่อยู่ในแนวเส้นทแยงมุมของ E ว่า singular value เราสามารถสลับ row กับ column ของ U E และ V เพื่อให้ค่า singular value ใน E เรียงจากมากไปน้อย จากมุมบนซ้ายไปยังมุมล่างขวาได้
ถ้าจะเข้าใจความหมายของ SVD ต้องลองคิดว่า เมื่อเราคำนวณ Ax = U E Vx โดยคูณจากทางขวาทีละครั้ง มันเกิดอะไรขึ้น
สมมติว่า
1. u1 u2 ... um คือ column vector ของ U
2. s1 s2 ... sr คือ singular value ซึ่งก็คือเลขบนเส้นทแยงมุมของ E (r = min{m,n})
3. v1 v2 ... vn คือ row vector ของ V
คราวนี้ ผลของการคูณ x ด้วย UEV สามารถแยกเป็นขั้น ๆ ได้แบบนี้ครับ
1. Vx คือ coordinate ของ x เทียบกับ basis ที่เกิดจาก v1 v2 ... vn
2. E (Vx) คือการคูณ coordinate ที่ i ของ x เทียบกับ V ด้วย singular value ตัวที่ i
3. U (EVx) คือ vector บน basis u1 u2 ... um ที่มี coordinate เป็น EVx
เนื่องจากเรารู้ว่า unitary matrix มีคุณสมบัติอนุรักษ์ขนาดของเวกเตอร์ ส่วนที่จะทำให้ความยาวของเวกเตอร์เปลี่ยนได้ก็มีเพียงส่วน E เท่านั้น โดยอัตราการเปลี่ยนก็คือคูณเข้าไปตรง ๆ เลย
s1 เป็น singular value ที่มีค่าสูงสุด และเป็นตัวที่คูณกับ coordinate ของ x ที่เทียบกับ v1 ดังนั้น ถ้าให้ x ขนานกับ v1 ความยาวของ Ax จะมีค่าสูงสุด (ถ้ากำหนดขนาดของ x ให้ไม่เกินค่าคงที่ค่าหนึ่ง) เขียนเป็นสมการย่อ ๆ ก็คือ
sup ||Ax|| / ||x|| = s1
ผลพลอยได้อื่น ๆ จาก SVD มีมากมายครับ เช่น
rank(A) = จำนวน singular value ที่ไม่เป็นศูนย์
pseudoinverse ของ A คือ V* E+ U* โดยที่ * หมายถึง conjugate transpose และ E+ หาได้โดยเอา E ไป transpose (เพื่อให้มิติมันถูก) แล้วก็เขียน 1/si แทนที่ si สำหรับช่องที่ si ไม่เป็น 0 ช่องอื่น ๆ ก็เป็น 0 ไป
ถ้าสงสัยอะไรหรืออ่านไม่รู้เรื่องตรงไหนก็ถามได้อีกนะครับ
Most importantly, the bassinet needs to have a wide,
sturdy base. What makes bassinets so popular is their portability.
These are just some of the many decisions you will need to make as a new parent.
my page :: round crib
Are you stumped about what to receive the gals in your Christmas list.
Make it truly unique by attaching personalized message.
The good thing about today's canvas bags is that they can be personalized using the bridesmaids embroidered names or initials.
Also visit my blog post :: http://wiki.beagleboard.de/
Post a Comment
<< Home