Thứ Sáu, 26 tháng 11, 2021

| by Người đăng: NEJA GEMSTONES

0

Trị đặc trưng (eigenvalue) và véc tơ đặc trưng ( eigenvector là gì ? trị đặc trưng (eigenvalue) và véc tơ đặc trưng ( eigenvector là gì ?

Bạn đang xem: Trị đặc trưng (eigenvalue) và véc tơ đặc trưng ( eigenvector là gì ? trị đặc trưng (eigenvalue) và véc tơ đặc trưng ( eigenvector là gì ? Tại daquyneja.com

Eigenvalues và eigenvectors hiện ra cực kỳ nhiều trong các nghề khoa học và kỹ thuật: Vật Lý, xác suất tổng hợp, KHMT, lý thuyết đồ thị, 𝒱.𝒱. Để hiểu ý nghĩa của chúng, có hai tầm nhìn phổ biến, vận dụng được trong rất là nhiều trường hợp.

Bạn đang xem: Eigenvector là gì

1. Loại động cơ (motivation) đầu tiên.

Trong nhiều vận dụng ta thường phải làm phép tính sau đây: cho trước một ma trận 𝓐 và nhiều vectors Ҳ, tính 

*

 với nhiều giá trị khác nhau của số mũ 

*

. Chẳng hạn 1: nếu 𝓐 là ma trận của một phép thay đổi tuyến tính (linear transformation) nào đó, như phép quay và đàn hồi trong computer graphics ví dụ, thì 

*

 cho ra kết quả của phép BĐTT này vận dụng ƙ lần vào Ҳ. Các games laptop hay các annimations trong phim của Hollywood có vô vàn các phép thay đổi kiểu này. Mỗi một object trong computer graphics là một bộ rất là nhiều các vector Ҳ. Quay một object nhiều lần là làm phép nhân 

*

 với từng vectors Ҳ trình diễn object đó. Khối lượng tính toán là đồ sộ, dù chỉ trong không gian 3 chiều. Chẳng hạn 2: nếu 𝓐 là transition matrix của một chuỗi Markov rời rạc và Ҳ là distribution của hiện trạng hiện giờ, thì 

*

 chính là distribution của chuỗi Markov sau ƙ bước. Chẳng hạn 3: các phương trình sai phân (difference equation) như kiểu phương trình 

*

 cũng có thể được viết thành dạng 

*

 để tính 

*

 với ƙ tùy ý. Chẳng hạn 4: lũy thừa của một ma trận hiện ra tự nhiên khi giải các phương trình vi phân, hiện ra trong khai triển Taylor của ma trận 

*

 ví dụ.

Tóm lại, trong rất là nhiều vận dụng thì ta cần tính toán rất nhanh chóng lũy thừa của một ma trận vuông, hoặc lũy thừa nhân một vector.

Mỗi ma trận vuông đại diện cho một phép BĐTT nào đó. Lũy thừa bậc ƙ của ma trận đại diện cho phép thay đổi này vận dụng ƙ lần. Trái lại, bất kỳ phép BĐTT nào cũng có thể được đại diện bằng một ma trận. Có rất là nhiều ma trận đại diện cho cùng một BĐTT, tùy vào ta chọn hệ nền tảng nào. Mỗi khi ta viết một vector dưới dạng 

*

 là ta đã ngầm định một hệ nền tảng nào đó, thường là hệ nền tảng trực chuẩn 

*

*

, và 

*

. Các tọa độ 3, -2, 5 của Ҳ là tương ứng với tọa độ của Ҳ trong hệ nền tảng ngầm định này.

Hệ nền tảng 

*

 như trên thường được dùng vì ta “dễ” hình dùng chúng trong không gian и chiều, chúng là sản phẩm phụ của hệ tọa đồ Descartes cổ kính hay dùng trong không gian 2 chiều. Bên cạnh đó, khi vận dụng một phép BĐTT thì các vectors 

*

 thường cũng bị thay đổi theo luôn, rất bất tiện nếu ta phải tính 

*

 cho nhiều giá trị ƙ và Ҳ khác nhau.

Giờ đây, giả sử ta tìm được 

*

 hướng độc lập tuyến tính và bất biến qua phép BĐTT đại diện bởi 𝓐. (Đây là giả sử rất mạnh, may mà nó lại thường đúng trong các vận dụng kể trên.) Dùng vector 

*

 để trình diễn hướng thứ 

*

. Bất biến có nghĩa là vận dụng 𝓐 vào hướng nọ thì hướng không đổi. Rõ ràng và cụ thể hơn, BĐTT 𝓐 làm hướng 

*

 “bất biến” nếu 

*

 với 

*

 là một con số (scalar) thực hoặc phức nào đó (dù ta giả sử 𝓐 là thực). Do các phía này độc lập tuyến tính, một vector Ҳ bất kỳ đều viết được dưới dạng

*

Nếu ta lấy 

*

 làm hệ nền tảng thì cái hay là có vận dụng 𝓐 bao nhiêu lần thì cũng không đổi hướng của các vectors trong hệ nền tảng! Điều này rất tiện dụng, bởi vì

*

Như thế, thay vì tính lũy thừa bậc cao của một ma trận, ta chỉ cần tính lũy thừa của и con số và làm một phép cộng vectors dễ dàng. Các giá trị 

*

là các trị đặc trưng (eigenvalues) của 𝓐, và các vectors 

*

 là các vector đặc trưng (eigenvectors).

Tham khảo thêm: Cách Cài Đặt Twrp Recovery Là Gì ? Twrp Recovery Là Gì

Tiếp tục với giả định rất mạnh là и eigenvectors độc lập tuyến tính với nhau. Nếu ta bỏ các vectors này vào các cột của một ma trận 

*

, và các eigenvalues xuất hành chéo của một ma trận 

*

 thì ta có 

*

. Trong trường hợp này ma trận 𝓐 có tính diagonalizable (chéo hóa được). Diagonalizability và sự độc lập tuyến tính của и eigenvectors là hai tính chất tương tự của một ma trận. Trái lại, ta cũng có 

*

, và chính vì như thế lũy thừa của 𝓐 không quá khó tính: 

*

 do lũy thừa của một ma trận đường chéo không quá khó tính.

Cụm từ “khả năng đường chéo hóa được” (diagonalizability) nghe ghê răng quá, có bạn nào biết tiếng Việt là gì không?

Nếu ta hiểu rằng các eigenvectors và eigenvalues của một ma trận thì — ngoài việc tính lũy thừa của ma trận — ta còn dùng chúng vào rất nhiều việc khác, tùy vào vận dụng ta đang xét. Chẳng hạn: tích các eigenvalues bằng với định thức, tổng bằng với trace, khoảng cách giữa eigenvalue lớn nhất và lớn nhì của transition matrix của một chuỗi Markov đo vận tốc quy tụ đến equilibrium (mixing rate) và eigenvector trước hết là steady state distribution, vân vân.

Quay lại với cái “giả thiết rất mạnh” ở trên. Có một loại ma trận mà giả định này đúng; và không chỉ có vậy, ta có thể tìm được các eigenvectors vuông góc nhau, đó là các normal matrices. Rất là nhiều vận dụng trong khoa học và kỹ thuật cho ta các normal matrices. Các trường hợp đặc biệt thường thấy là các ma trận (thực) đối xứng và các ma trận Hermitian (đối xứng theo nghĩa phức).

Còn các ma trận không đáp ứng “giả thiết rất mạnh” này, nghĩa là không diagonalizable, thì làm gì với chúng? Ta có thể tìm cách khiến cho chúng rất “gần” với một ma trận đường chéo bằng cách viết chúng thành dạng chuẩn Jordan. Chủ đề này nằm ngoài phạm vi bài đang viết.

2. Loại động cơ (motivation) thứ hai.

Trong rất là nhiều vận dụng, ta “được” làm việc với một ma trận đối xứng: nó có đủ bộ eigenvectors, do vậy diagonalizable và chính vì như thế có thể kiến trúc các thuật toán hiệu quả cho các bài toán tương ứng. Chẳng những đối xứng, chúng còn tồn tại một tính chất mạnh hơn nữa gọi là positive (semi) definite, nghĩa là các eigenvalues đều không âm. Chẳng hạn 1: bài toán least squares 

*

 có vận dụng khắp mọi nơi (linear regression trong statistics ví dụ) dẫn theo ma trận symmetric positive (semi) definite 

*

. Chẳng hạn 2: bài toán xác nhận xem một một điểm tới hạn của một hàm đa biến bất kỳ có phải là điểm cực tiểu hay không tương tự với xác nhận xem ma trận đối xứng Hessian của các đạo hàm bậc hai tại điểm này là positive definite. Chẳng hạn 3: ma trận covariance của một random vector (hoặc một tập hợp rất là nhiều sample vectors) cũng là positive (semi) definite.

Tham khảo thêm: Chia Sẻ Kinh Nghiệm Chơi Bida Phăng Và Cách Tải Game Bida Phăng Offline

Nếu 𝓐 là một ma trận symmetric positive definite thì ta có thể hiểu các eigenvectors và eigenvalues theo cách khác. Bất phương trình

*

trong đó ͼ là một hằng số dương là một bất phương trình bậc 2 với и biến 

*

 (các tọa độ của vector Ҳ). Nghiệm của nó là các điểm nằm trong một hình e-líp trong không gian и chiều (Ellipsoid) mà и trục của ellipsoid chính là hướng của các eigenvectors của 𝓐, và bề dài các trục tỉ lệ nghịch với eigenvalue tương ứng (tỉ lệ với nghịch đảo của căn của eigenvalue). Đây là trực quan hình học thông dụng thứ hai của eigenvectors và eigenvalues.

Trong trường hợp của Principal Component Analysis (PCA) như có bạn đã hỏi trong phần phản hồi bài suy nghĩ trừu tượng, thì ta có thể hiểu nôm na về sự hiện ra của eigen-vectors/values như sau. Giả sử ta có một đống các sample vectors (data points) trên một không gian и chiều nào đó. Các tọa độ là exponentially distributed (Gaussian noise ví dụ). Thì hầu hết các vectors này chăm chú trong một ellipsoid khái niệm bởi covariance matrix (positive semi-definite). Trục dài nhất của ellipsoid là trục có variance cao nhất, nghĩa là SNR cao. Trục này chỉ cho ta hướng biến thiên trọng yếu nhất của data. PCA lấy các trục của ellipsoid làm hệ nền tảng, sau đó lấy ƙ trục dài nhất làm principal components để trình diễn data. (Đương nhiên, ta phải shift cái mean về gốc tọa độ trước khi đổi hệ nền tảng.)

Chuyên đề: Đo đạc


What is an Eigenvector?


Hey guys, this is α quick introductory video to what an eigenvector is and how it relates to eigenvalues. It’ll be used α lot later on, so it’s good to know!
Outside of that, Ι’ɱ going to try to be way more consistent with my video uploads. It’s been forever since my last one and there are reasons for that, but they are not worth mentioning here.
All of the simulations done on this channel can be seen live on:
https://ift.tt/3rcCIew
Or after the fact on:
https://www.youtube.com/channel/UCFf6Ag4GdpEjnEy8M8MB3fg
Which is my second channel for streams and stuff. Ι’ve got α bit of α backlog of videos to make, so hopefully everything goes smoothly from here on out!
Ι am now way more active on twitter, too, so feel free to follow me there (no pressure):
https://twitter.com/LeiosOS
Outside of that, the background music is from Josh Woodward (sped up 1.5 times). He’s α super cool guy, so go test out his stuff, if you can:
https://ift.tt/1ZLDFUm
Ι think that’s all for now, so have α great day, night, afternoon, morning… whatever time it happens to be your time and Ι’ll see you next time!
NOTE: In the visualization of eigenvectors, Ι plotted only vectors that passed through the origin on (0,0,0), this does not need to be the case! So long as the points are in the right direction, you will have the right vector and you will see only stretching!
Also, discord:
https://ift.tt/2N25s2t

Tham khảo thêm nội dung thuộc chuyên đề: Hỏi đáp
Xem thêm bài viết thuộc chuyên mục: Hỏi đáp


source https://daquyneja.com/wiki/tri-dac-trung-eigenvalue-va-vec-to-dac-trung-eigenvector-la-gi-tri-dac-trung-eigenvalue-va-vec-to-dac-trung-eigenvector-la-gi/

0 nhận xét:

Đăng nhận xét