본문 바로가기
  • 공부, 여행 리뷰해요~~!!
반응형

공부50

NTRIP(Networked Transport of RTCM via Internet Protocol)이란? NTRIP(Networked Transport of RTCM via Internet Protocol)이란? NTRIP(Networked Transport of RTCM via Internet Protocol)은 GPS의 보강데이터를 효율적으로 전송하기 위한 표준 프로토콜 입니다. (GPS 보강데이터: RTK, VRS, PPP 등을 위해 사용되는 GPS Augmentation data) NTRIP라고 하는 프로토콜은 RTCM(The Radio Technical Commission for Maritime Services) 데이터를 인터넷을 통해 실시간으로 전송합니다. 보강 GPS를 사용하면 더 정확한 위치 정보를 얻을 수 있으므로, NTRIP을 적절히 사용할 수 있다면 여러 위치기반서비스에 적용할 수 있겠네.. 2023. 11. 9.
선형 대수 - 13. 선형 부분공간 이번 시간에는 선형 부분공간에 대해서 스터디 해보겠습니다. 좌표계에서 R2라고 하면 아래와 같이 정의할 수 있겠습니다. xy 평면, 2차원 공간 혹은, 다음과 같이 말할 수 있을 것입니다. 모든 2차원 내의 벡터를 합친 공간 그렇다면 R3는 어떨까요? xyz 공간 혹은 3차원 공간이라고 말할 수 있구요. 마찬가지로 모든 3차원 내의 벡터를 합친 공간이라고 할 수 있겠습니다. 즉, 가능한 모든 vector(in Rn)을 합치면 Rn이 되겠습니다. R2의 부분 공간 R2의 부분 공간은 2차원 벡터가 되겠습니다. (참고. 모든 공간은 부분 공간이 있다.) 부분공간(Subspace) 계속해서 부분공간이라는 단어가 나오고 있습니다. 부분 공간을 충족하는 3가지 조건이 있습니다. - 1) 항상 0벡터를 포함 즉, .. 2023. 11. 2.
선형 대수 - 12. 3차원에서 선형 독립 3차원에서 선형 독립 아래와 같이 3차원 공간에서, 3차원 공간을 만들기 위해서는 3개의 벡터가 모두 선형 독립이어야 합니다. n차원에서 선형 독립 마찬가지로, Rn의 경우 n차원 공간에서 n개의 벡터가 모두 선형독립이어야 합니다. 하나의 벡터를 span하면 선이 됩니다. 즉, R1은 R2를 정의할 수 없습니다. vector 2개를 span 하면 면(plane)이 됩니다. R2에서 3개 이상의 벡터가 있다면 그 벡터들의 경우 최소 두 개 이상의 벡터가 선형 의존적 입니다. (Linearly dependent) 즉, Rn에서 필요한 n개 보다 벡터가 적으면 공간을 정의할 수 없고, n개 보다 많으면 linearly dependent한 벡터가 무조건 존재합니다. 3차원에서 선형 독립 판별 3차원에서 선형 독.. 2023. 10. 10.
선형 대수 - 11. 선형독립 (2차원) 2차원의 선형독립 (Linear Independence in R2) R2: 2개의 Linear independent한 vector Rn: n개의 vector가 모두 Linearly independent, Rn에서! vector v = (2,2)가 있다고 하겠습니다. vector v의 선형 결합은 아래와 같이 상수 c와 vector v의 곱셈으로 나타낼 수 있습니다. cv의 경우, vector v를 연장한 직선 위의 한 점을 가리키는 벡터가 됩니다. vector v의 경우 아무리 span을 하여도 R2가 될 수 없습니다. 그리고, 여기 vector v에 dependent한 vector w가 있습니다. vector w = (4,4). w는 v와 not linearly independent합니다. (즉, pa.. 2023. 10. 7.
선형 대수 - 10. 선형 결합 & span 선형 결합 지난번에 배운 내용들이 많이 나옵니다. 유닛 벡터와 기저벡터에 관한 내용은 링크를 참조 바랍니다! ( 선형 대수 - 9. 유닛 벡터와 기저 벡터 (tistory.com)) Vector v = (4,-3)이 있다고 하겠습니다. 아래와 같이 그래프로 표현할 수 있습니다. Vector v의 경우 표준 기저 벡터 i, j의 선형결합으로 표현할 수 있습니다. 이것을 다시 표현하면, 아래와 같이 벡터 세트를 결합하여 표현할 수 있습니다. ※ 선형 결합 (Linear Combination): 벡터에 수를 곱한 뒤 더하는 것 (Sum of scared vectors) span 그렇다면 span은 무엇일까요? ※ span: 모든 선형 결합 (all the linear combination) 예를 들어, xy .. 2023. 10. 4.
선형 대수 - 9. 유닛 벡터와 기저 벡터 유닛 벡터. Unit Vector Unit Vector는 길이가 1인 벡터 입니다. 주로 아래와 같이 표현하고 합니다. Vector v = {4,-3}이 있다고 하겠습니다. 그래프로 표현하면 아래와 같습니다. Vector v와 방향이 같은 유닛 벡터를 구하려면 Vector v의 길이를 구해서 v 각각의 원소에 나눠주면 됩니다. Vector v의 크기는 다음과 같이 구할 수 있습니다. 물론 예제에서 v = {4,-3} 이므로, n=2까지 구하면 됩니다. 그래서 본 예제에서 v의 크기는 5가 됩니다. 이제 우리는 Vector v의 unit vector를 구하는 공식을 알게 되었습니다. 그것은 아래와 같습니다. 확인해 보십시오. 표준 기저 벡터: Standard basis vector 2-Dimensional.. 2023. 10. 3.
선형 대수 - 8. 벡터의 정의 및 연산 이제까지는 행렬 및 행렬 연산에 대해서 공부했습니다. 이제는 "벡터"에 대해서 배워보도록 하겠습니다. 벡터, Vector - Vector를 이제부터는 행렬의 형태로 표현하도록 하겠습니다. ※ Vector의 정의 - 방향(Direction)을 가진다. - 크기(Magnitude) 혹은 길이(Length)를 가진다. 예를 들어, 다음과 같이 벡터 a, 즉, [3,4]가 있다고 생각해 보겠습니다. 위 식은 열벡터(Column vector)로 표현한 것이지만, a = [3 4]와 같이 행벡터(Row vector)로도 표현할 수 있습니다. 이 벡터는 원점에서 [3,4]를 향하는 방향과 크기가 있습니다. 아래 그림과 같이 표현할 수 있겠습니다. 커다란 행렬을 통하여 열벡터(혹은 행벡터의 모음으로도 나타낼 수 있습니.. 2023. 9. 26.
선형 대수 - 7. 제거 행렬 (Elimination Matrix) 7. 제거 행렬 (Elimination Matrix) 오늘은 특정 A에 대해서, A를 항등행렬로 만드는 제거행렬 E에 대해서 알아보도록 하겠습니다. 역행렬의 특징 임의의 행렬 A가 있다고 하겠습니다. AI = A IA = A inv(A)*A = I A*inv(A) = I 위의 식들이 성립합니다. 여기서, I = Identity Matrix , 항등행렬, 대각원소만 1이고 나머지는 0인 행렬 inv(A): A의 역행렬 Elimination Matrix (E), 제거 행렬 EA = I를 만족하는 행렬 항등행렬 I는 '기약행사다리꼴(RREF)'인 점을 유의해 주세요. (기약행사다리꼴 참고 링크: 선형 대수 - 3. 피벗(pivot) 과 기약행사다리꼴(RREF) (tistory.com)) EA = I에서, 행렬.. 2023. 9. 24.
선형 대수 - 6. 행렬의 곱 선형대수 6. 행렬의 곱 오늘은 행렬의 곱에 대해 포스팅 해보려 합니다. - 목차 - 1. 행렬의 스칼라 곱 : Scalar Multiplication 2. 행렬 곱셈: Matrix Multiplication 3. 행렬 곱셈의 특징 4. 항등행렬 1. 행렬의 스칼라 곱 : Scalar Multiplication 행렬 A를 생각해 보겠습니다. 행렬 A의 각 원소에 2를 곱하면 다음과 같이 됩니다. 또한, 2가 아니라 (1/2) 혹은 1을 곱하는 것도 유효 합니다. 1A = A Scalar 0을 곱하는 경우라면, 0A = 0 (영행렬)이 됩니다. 영행렬이 나왔으니, 역원에 대해서 잠시 설명하겠습니다. ※ 역원: 서로 더했을 때 역행렬이 되는 행렬의 덧셈 - 행렬 A의 역원은 -A 2. 행렬 곱셈: Matri.. 2023. 9. 14.
반응형