728x90

해당 게시글은 전기기계 정승기 교수님의 책을 정리하고, 그동안 배운 내용들을 정리하기 위해 포스팅을 합니다. 개인적으로 1장의 개념을 완벽하게 해야 그 이후로 혼동이 안생깁니다.


1-1. 자기장, 기자력, 자기저항

학창시절 배운 것처럼 자석은 자석 자체로 존재하는 것이 아니라 자석 주변 공간에 자기장이 형성되어 있습니다. 이 자기장을 자기력선으로 나타냅니다. 

나침판을 자기장에 놓으면 그 방향을 나타낸다는 중학교때 실험처럼 자기력선은 N극에 나와 S극에 들어갑니다. 또한 자석 내부에서 폐루프를 이룹니다. 자석이 강할수록 자기력선의 수가 많아지는데 이를 자속 Φ 이라 부르며, Wb(Weber)의 단위를 사용합니다. 나중에는 정말 많은 관계들이 나오는데 이때, 단위를 잘 사용해야합니다. 

자기력선은 자석 근처에서 빽뺵하므로 그곳에서 자기장이 강하고, 자석과 먼 곳에서는 자기장이 약합니다. 따라서 밀도로 이를 표현하는 방식이 필요한데 그것이 자속밀도입니다. 기호는 B 단위는 밀도이므로 Wb/ ㎡  으로 사용하기도 하고 T(Tesla)로도 표현합니다. 교수님들이 항상 이 단위를 이야기할 때마다 추가적인 이야기를 하고 싶어 미소를 짓습니다. 

자기장은 전류에 의해서도 만들어집니다. 도체에 전류가 흐르면 주위에 영구자석 주변에서 오른손법칙에 의해 해당 도선에서 자기장이 형성됩니다. 

이제 전류가 흐르는 이 도선을 구부려 보겠습니다.

 

위 그림에서 왼쪽이 도선을 구부린 모양이고 이곳에 전류를 흘리면 자기력선이 형성됩니다. 왜 저렇게 형성될까요?
그림을 자세히 보면 코일 각각에 조그맣게 오른손법칙에 의해 자기력선이 형성됩니다. 이 자기력선들을 합쳐보면 큰 자기력선이 저렇게 형성된다고 볼수 잇는 것입니다. 이제 오른쪽을 보면 이와 같이 코일을 여러 감게 되면, 자기력선의 크기가 훨씬 커지게 됩니다. N회 턴을 감았는데 마치 전류가 N배 된 전류가 형성하는 자기력선을 형성하는 것처럼 나타내는 것입니다. 이를 기자력이라고 합니다. 따라서 기자력은 힘의 단위처럼  F (A-t) 로 나타내고, 이는 N*i 라고 할 수있습니다. 

기자력 F와 자속 Φ는 어떤 관계를 가지는데 자기력을 자속으로 나눈 값을 자기저항R 이라고 나타냅니다. 또는 릴럭턴스 라고 나타냅니다.  1Wb의 자속을 만들어내는데 필요한 기자력이라고도 이야기할 수 있습니다. 자기저항이 크면 같은 기자력에서 자속의 양이 줄고, 자기저항이 작으면  작은 기자력으로도 큰 자속이 만들어집니다. 참고로 자기저항의 단위는 H(헨리)의 역수입니다. 

잠깐, 다시 좀 더 쉽게 이야기하자면 자기저항이 작은 곳에서 턴수를 조금만 감거나, 전류를 조금만 흘려도 동일한 자속을 만들 수 있다는 것입니다. 자기저항과 관련된 건 자속의 경로가 지나는 물질인데, 어떤 물질로 이루어져 있는지에 따라 달라집니다. 


지금까지 자기장, 기자력, 자기저항에 대해서 학습했습니다. 다음 게시글에는 자화, 자기포화,철심 등에 대해 포스팅하겠습니다.  푸키였습니다. 

728x90
728x90

안녕하세요 푸키입니다. 오늘은 좌표계 변환에 대해서 알아보겠습니다.

원래 데카르트 좌표계에서는 저희가 흔하게 알고 있는 것처럼 이중적분 삼중적분을 계산하면 되지만 원통좌표계와 구좌표계 같은 경우 x,y,z가 각각 해당 좌표계의 축으로 변하므로 데카르트 좌표계에서의 적분과 달라지게 됩니다. 

벡터미적분학 같은 경우 일부 문제에 따라 좌표계를 바꾸어 다중 적분을 계산하지만 전자기학 같은 경우 굉장히 많이 쓰이는 테크닉 방법중 하나입니다. 

1. 원통 좌표계 

https://ko.wikipedia.org/wiki/%EA%B7%B9%EC%A2%8C%ED%91%9C%EA%B3%84

증명은 안하겠습니다 각각 반지름, 높이, 각도로 정의되게 됩니다. 삼중적분시, 

기존 형태에서 r이 곱해집니다. 

2. 구 좌표계 

https://ko.wikipedia.org/wiki/%EA%B7%B9%EC%A2%8C%ED%91%9C%EA%B3%84

구 좌표계 역시 각각 xy 평면에서의 각도, Z축에서의 각도, 반지름으로 구성되는데 기존의 방식과는 다르므로 어떻게 정의하는 지 아는 것이 중요합니다. 

간단하게 적었지만 해당 문제들을 연습하는 것을 추천합니다. 다음에는 벡터의 회전과 발산에 대해 정리하겠습니다. 


푸키였습니다 좋은 하루 되세요! 

마음에 드셨다면 공감 부탁드립니다

 

728x90
728x90

안녕하세요 푸키입니다. 오늘은 머신러닝의 배치학습과 온라인 학습에 대해서 이야기하겠습니다. 


글의 흐름

< 머신러닝 >

1. 머신러닝 분류 (1) 회귀와 분류 
2. 머신러닝 분류 (2) 배치학습과 온라인 학습 << 현위치 
3. 머신러닝 분류 (3) 사례 기반과 모델 기반 
4. 데이터 인코딩/ 피처스케일링/ 교차검증
5. 주요 머신러닝 모델 소개 

< 딥러닝 > 

1. 그래프 모델 개념 및 신경망 기본 구조 소개 
2. 전방향 연산, 가중치 초기화, 배치 기반 연산학습. Regularization 기본 개념
3. 신경망에서 학습의 의미, 역전파 기본 개념 및 chain Rule 을 이용한 학습
4. RBM 구축 과정, 수학이론, 구현 연습 
5. CNN 개념  
6. 다양한 딥러닝 모델 소개 

머신러닝 분류 (2) 배치학습과 온라인 학습 

머신러닝 시스템을 분류하는 데 사용하는 다른 기준은 입력 데이터의 스트림으로부터 점진적으로 학습할 수 있는지 여부입니다. 배치 학습과 온라인 학습이 있습니다.

배치 학습이란?

배치학습에서는 시스템이 점진적으로 학습할 수 없습니다. 데이터를 모두 사용해 훈련하기 때문에 오프라인에서 수행되기 때문에 오프라인 학습이라고 합니다. 학습 시스템이 새로운 데이터에 대해 학습하려면 전체 데이터를 사용해서 다시 처음부터 시작해야 합니다. 다행히 전체 과정이 쉽게 자동화 될 수 있어 변화에 적응할 수 있습니다. 따라서 배치 학습은 잘 작동하지만 전체 데이터셋을 사용해 훈련하는 데 몇 시간이 소요될 수 있습니다. 따라서 빠르게 적응해야 한다면 다른 방법이 필요합니다

온라인 학습이란?

온라인 학습에서는 데이터를 순차적으로 한 개씩 또는 미니배치라 부르는 작은 묶음 단위로 주입하여 시스템을 훈련시킵니다. 새로운 데이터 샘플을 학습하면 학습이 끝난 데이터는 더 이상 필요하지 않으므로 버리면 됩니다. 따라서 매우 큰 데이터셋을 학습하는 시스템에도 온라인 학습 알고리즘을 사용할 수 있습니다. 여기서 중요한 건 학습률입니다. 변화하는 데이터에 얼마나 빠르게 적응할 것인지를 학습률이라고 하는데 학습률을 높게 하면 시스템이 데이터에 빠르게 적응하지만 예전 데이터를 금방 잊어버리고 학습률이 낮으면 속도가 느립니다. 온라인 학습에서 가장 큰 문제는 시스템에 나쁜 데이터가 주입될 때 시스템 성능이 점진적으로 감소합니다.

 


푸키였습니다 좋은 하루 되세요! 

마음에 드셨다면 공감 부탁드립니다. 오류가 있다면 댓글로 알려주세요. 끊임없이 수정하고 있습니다. 

 

728x90
728x90

안녕하세요 푸키입니다. 오늘은 머신러닝의 회귀와 분류에 대해서 이야기하겠습니다. 


글의 흐름

< 머신러닝 >

1. 머신러닝 분류(1) 머신러닝 회귀와 분류 << 현위치 
2. 머신러닝 분류(2) 머신러닝 배치학습과 온라인 학습
3. 머신러닝 분류(3) 머신러닝 사례 기반과 모델 기반 
4. 데이터 인코딩/ 피처스케일링/ 교차검증
5. 주요 머신러닝 모델 소개 

< 딥러닝 > 

1. 그래프 모델 개념 및 신경망 기본 구조 소개 
2. 전방향 연산, 가중치 초기화, 배치 기반 연산학습. Regularization 기본 개념
3. 신경망에서 학습의 의미, 역전파 기본 개념 및 chain Rule 을 이용한 학습
4. RBM 구축 과정, 수학이론, 구현 연습 
5. CNN 개념  
6. 다양한 딥러닝 모델 소개 

머신러닝이란?

머신러닝은 인간이 학습을 통해 정확도를 점진적으로 개선하는 방식을 모방하기 위한 데이터와 알고리즘의 사용에 초점을 맞춘 인공지능(AI) 및 컴퓨터 사이언스의 한 분야입니다. 알고리즘을 이용하여 데이터를 분석하고, 분석 결과를 스스로 학습한 후, 이를 기반으로 어떠한 판단이나 예측을 하는 것을 의미합니다

머신러닝은 학습과 개선을 위해 명시적으로 컴퓨터를 프로그래밍하는 대신, 컴퓨터가 데이터를 통해 학습하고 경험을 통해 개선하도록 훈련하는 데 중점을 둡니다. 머신러닝에서 알고리즘은 대규모 데이터 세트에서 패턴과 상관관계를 찾고 분석을 토대로 최적의 의사결정과 예측을 수행하도록 훈련됩니다.  

 

머신 러닝의 3가지 학습방법 

머신러닝은 크게 세가지로 분류 할 수 있는데 이번 게시물에는
학습하는 동안의 감독 형태나 정보량에 따라 분류하겠습니다. 

이 분류에는 총 3가지 학습방법이 있습니다. (준지도학습까지 4가지라고도 합니다) 

https://live.lge.co.kr/live_with_ai_01/

 

① 지도 학습 (Supervised Learning)
:  정답을 기반으로 오류를 줄여서 학습하는 방법. 지도 학습에는 알고리즘에 주입하는 훈련 데이터에 레이블이라는 원하는 답을 포함합니다. 지도 학습에는 밑에서도 설명하겠지만 분류와 회귀 방법이 있습니다. 
지도 학습은 반복 학습을 통해서 오류를 줄여가면서 점점 더 정답에 가까워지게 됩니다.

② 비지도 학습 (Unsupervised Learning)
: 정답을 모르더라도 유사한 것들과 서로 다른 것들을 구분해서 군집을 만들 수 있는 학습하는 방법.
비지도 학습에는 군집, 시각화와 차원축소 등이 있습니다. 


최근에는 지도 학습과 비지도 학습을 섞어서 데이터에 정답을 유추해 나가는 방법의 기술들도 많이 나오고 있으며, 이를 준지도 학습(Semi-Supervised Learning)이라고 합니다. 군집을 학습한 후에, 군집의 일부 데이터만 사람이 정답을 매겨주면, 그 군집 전체를 사람이 매긴 정답으로 볼 수 있다는 원리입니다.

③ 강화 학습 (Reinforcement Learning)
: 보상과 벌칙과 함께 여러 번의 시행착오를 거쳐 스스로 학습하는 방법. 여기서 학습하는 시스템을 에이전트라고 부르며 환경을 관찰해서 행동을 실행하고 보상이나 벌점을 받습니다. 가장 큰 보상을 받기 위해 정책이라고 부르는 최상의 전략을 스스로 학습합니다. 보행로봇 같은 경우에 사용합니다. 

머신 러닝에서 회귀와 분류란?

https://davincilabs.ai/wiki/?q=YToxOntzOjEyOiJrZXl3b3JkX3R5cGUiO3M6MzoiYWxsIjt9&bmode=view&idx=7709711&t=board

지도학습에서 데이터의 종류에 따라 분류와 회귀로 나눌 수 있습니다. 

분류는 종속 변수 (target)범주형 데이터지만

회귀에서 종속 변수는 수치형 데이터입니다. 

즉 종속변수 ( 목표) 가 범주형 데이터면 분류, 종속 변수 ( 목표) 가 수치형 데이터면 회귀를 이용해야하는 것 입니다. 


예를 들어볼까요,

사람들의 수면시간을 입력 ( 독립변수) 시험 점수를 확인합니다. (종속 변수)  -> 회귀

사람들의 수면시간을 입력( 독립변수)  최종 합격여부를 확인합니다. (종속 변수)  -> 분류


회귀에서는 또, 독립변수 (x)가 한 개이고 종속변수 (Y)가 하나일 경우 단순 선형 회귀

독립변수 (X) 여러개와 종속변수 (Y) 하나의 관계일 경우 다중 선형 회귀라고 합니다. 


이에 회귀문제에서는 최적의 회귀 계수를 찾아야 합니다.

예측값과 실젯값의 차이 즉 오차를 최소화 해야하지만,  이 오차가 0이기엔 어렵고 그에 가까울 경우 과대적합일 경우도 있습니다. 이에 관련해서 다음장에서 설명드리겠습니다. 

*과대적합: 훈련한 데이터에만 정확도가 맞고 그렇지 않은 데이터에는 적합하지 않은 현상입니다. 저도 머신러닝 프로젝트를 할 때 다음과 같은 일이 많았습니다. 훈련한 데이터는 기가막히게 잘 분류하는데, 글쎄 다른 데이터는 분류를 엄청 이상하게 하더라구요. 이를 해결하는 방법에 대해서 다음에 말씀드리겠습니다.


푸키였습니다 좋은 하루 되세요! 

마음에 드셨다면 공감 부탁드립니다. 오류가 있다면 댓글로 알려주세요. 끊임없이 수정하고 있습니다. 

728x90

+ Recent posts