728x90

해당 게시글은 전기기계 정승기 교수님의 책을 정리하고, 그동안 배운 내용들을 정리하기 위해 포스팅을 합니다. 개인적으로 1장의 개념을 완벽하게 해야 그 이후로 혼동이 안생깁니다.


1-1. 자기장, 기자력, 자기저항

학창시절 배운 것처럼 자석은 자석 자체로 존재하는 것이 아니라 자석 주변 공간에 자기장이 형성되어 있습니다. 이 자기장을 자기력선으로 나타냅니다. 

나침판을 자기장에 놓으면 그 방향을 나타낸다는 중학교때 실험처럼 자기력선은 N극에 나와 S극에 들어갑니다. 또한 자석 내부에서 폐루프를 이룹니다. 자석이 강할수록 자기력선의 수가 많아지는데 이를 자속 Φ 이라 부르며, Wb(Weber)의 단위를 사용합니다. 나중에는 정말 많은 관계들이 나오는데 이때, 단위를 잘 사용해야합니다. 

자기력선은 자석 근처에서 빽뺵하므로 그곳에서 자기장이 강하고, 자석과 먼 곳에서는 자기장이 약합니다. 따라서 밀도로 이를 표현하는 방식이 필요한데 그것이 자속밀도입니다. 기호는 B 단위는 밀도이므로 Wb/ ㎡  으로 사용하기도 하고 T(Tesla)로도 표현합니다. 교수님들이 항상 이 단위를 이야기할 때마다 추가적인 이야기를 하고 싶어 미소를 짓습니다. 

자기장은 전류에 의해서도 만들어집니다. 도체에 전류가 흐르면 주위에 영구자석 주변에서 오른손법칙에 의해 해당 도선에서 자기장이 형성됩니다. 

이제 전류가 흐르는 이 도선을 구부려 보겠습니다.

 

위 그림에서 왼쪽이 도선을 구부린 모양이고 이곳에 전류를 흘리면 자기력선이 형성됩니다. 왜 저렇게 형성될까요?
그림을 자세히 보면 코일 각각에 조그맣게 오른손법칙에 의해 자기력선이 형성됩니다. 이 자기력선들을 합쳐보면 큰 자기력선이 저렇게 형성된다고 볼수 잇는 것입니다. 이제 오른쪽을 보면 이와 같이 코일을 여러 감게 되면, 자기력선의 크기가 훨씬 커지게 됩니다. N회 턴을 감았는데 마치 전류가 N배 된 전류가 형성하는 자기력선을 형성하는 것처럼 나타내는 것입니다. 이를 기자력이라고 합니다. 따라서 기자력은 힘의 단위처럼  F (A-t) 로 나타내고, 이는 N*i 라고 할 수있습니다. 

기자력 F와 자속 Φ는 어떤 관계를 가지는데 자기력을 자속으로 나눈 값을 자기저항R 이라고 나타냅니다. 또는 릴럭턴스 라고 나타냅니다.  1Wb의 자속을 만들어내는데 필요한 기자력이라고도 이야기할 수 있습니다. 자기저항이 크면 같은 기자력에서 자속의 양이 줄고, 자기저항이 작으면  작은 기자력으로도 큰 자속이 만들어집니다. 참고로 자기저항의 단위는 H(헨리)의 역수입니다. 

잠깐, 다시 좀 더 쉽게 이야기하자면 자기저항이 작은 곳에서 턴수를 조금만 감거나, 전류를 조금만 흘려도 동일한 자속을 만들 수 있다는 것입니다. 자기저항과 관련된 건 자속의 경로가 지나는 물질인데, 어떤 물질로 이루어져 있는지에 따라 달라집니다. 


지금까지 자기장, 기자력, 자기저항에 대해서 학습했습니다. 다음 게시글에는 자화, 자기포화,철심 등에 대해 포스팅하겠습니다.  푸키였습니다. 

728x90
728x90

안녕하세요 푸키입니다. 오늘은 좌표계 변환에 대해서 알아보겠습니다.

원래 데카르트 좌표계에서는 저희가 흔하게 알고 있는 것처럼 이중적분 삼중적분을 계산하면 되지만 원통좌표계와 구좌표계 같은 경우 x,y,z가 각각 해당 좌표계의 축으로 변하므로 데카르트 좌표계에서의 적분과 달라지게 됩니다. 

벡터미적분학 같은 경우 일부 문제에 따라 좌표계를 바꾸어 다중 적분을 계산하지만 전자기학 같은 경우 굉장히 많이 쓰이는 테크닉 방법중 하나입니다. 

1. 원통 좌표계 

https://ko.wikipedia.org/wiki/%EA%B7%B9%EC%A2%8C%ED%91%9C%EA%B3%84

증명은 안하겠습니다 각각 반지름, 높이, 각도로 정의되게 됩니다. 삼중적분시, 

기존 형태에서 r이 곱해집니다. 

2. 구 좌표계 

https://ko.wikipedia.org/wiki/%EA%B7%B9%EC%A2%8C%ED%91%9C%EA%B3%84

구 좌표계 역시 각각 xy 평면에서의 각도, Z축에서의 각도, 반지름으로 구성되는데 기존의 방식과는 다르므로 어떻게 정의하는 지 아는 것이 중요합니다. 

간단하게 적었지만 해당 문제들을 연습하는 것을 추천합니다. 다음에는 벡터의 회전과 발산에 대해 정리하겠습니다. 


푸키였습니다 좋은 하루 되세요! 

마음에 드셨다면 공감 부탁드립니다

 

728x90
728x90

안녕하세요 푸키입니다. 

이번 글에서는  OPIC  공부에 대해 이야기해보겠습니다.

  1월 31일에 오픽을 보고 왔고 IH 등급을 받았습니다. 요즘 IH 받기가 어려워졌다는 말을 듣고 노심초사 했는데 IH 받고 바로 안도의 한숨을 내쉬었습니다. 

오픽은 영어말하기 시험으로 60분 (오리엔테이션 20분 + 본시험 40분) 으로 구성되어 있습니다. 오픽 시험장은 저는 분당센터로 진행했습니다. 가면 직원분이 정말~ 친절하게 해주므로 간단하게 어떻게 진행되는 지만 알면 될 것 같습니다. 


오픽 공부법저같은 경우 오픽 노잼 책을 샀습니다. 

스크립트를 외우는 것이 싫었기 때문에 오픽노잼 책과 영상을 보면서 IH 시리즈를 봤습니다. 사실 영상에 있는 내용이 책에 그대로 있기에 그냥 책 한권 훑어보고 각 파트별로 어떻게 대응하는 지를 준비했습니다. 오픽 파트는 사실 구조화되어 있기에 어떤 곳에서 어떻게 대응할 것인지 미리 정해놓으면 무리가 없을 것 같습니다. 

여우모의고사 라는 유튜브에 들어가서 파트별로 정리한 걸 정리하는 방법으로 연습했습니다.

결과적으로 오픽노잼 이용해서 질문유형화를 정리해서 -> 각 질문마다 어떤 방식으로 대답할 지 생각해놓기 -> 여우모의고사로 대입해보기.  가 제 공부방식이었습니다. 


실전 

솔직히 고백하자면 실전에서 거의 못지켰습니다 ㅎㅎ... 그래도 말하는데 체계적으로 이야기하는 방법에 대해서 익숙해져서 IH 를 받은 것 같습니다. 난이도는 6-6으로 했습니다. 

설문조사 체크에 그냥 사실 준비안하고 갔다가 아무렇게나 체크했는데 그 분야가 제일 어려운 문제로 출제되어서 당황했어요. 예를 들어 저는 합창하기에 체크를 했는데 진짜 합창하기를 물어봐서!! 블러핑으로 교회에서 합창을 했었다 라고 대답을 했어요. 체크하기도 미리 정해놓고 가는 걸 추천합니다.  

제가 기억나는 것으로 괜히 길게 말한다고 주제에서 점점 벗어날바에 짧게 끝내기, 말이 이상하면 그냥 잘못말했다고 하고 다시 말하기, 외운 대본처럼 바로 말하지 말고 조금씩 umm 같은 필터 넣기가 중요한 스킬이었던 것 같습니다. 

 


푸키였습니다 좋은 하루 되세요! 

마음에 드셨다면 공감 부탁드립니다

728x90
728x90

안녕하세요 푸키입니다. 오늘은 머신러닝의 배치학습과 온라인 학습에 대해서 이야기하겠습니다. 


글의 흐름

< 머신러닝 >

1. 머신러닝 분류 (1) 회귀와 분류 
2. 머신러닝 분류 (2) 배치학습과 온라인 학습 << 현위치 
3. 머신러닝 분류 (3) 사례 기반과 모델 기반 
4. 데이터 인코딩/ 피처스케일링/ 교차검증
5. 주요 머신러닝 모델 소개 

< 딥러닝 > 

1. 그래프 모델 개념 및 신경망 기본 구조 소개 
2. 전방향 연산, 가중치 초기화, 배치 기반 연산학습. Regularization 기본 개념
3. 신경망에서 학습의 의미, 역전파 기본 개념 및 chain Rule 을 이용한 학습
4. RBM 구축 과정, 수학이론, 구현 연습 
5. CNN 개념  
6. 다양한 딥러닝 모델 소개 

머신러닝 분류 (2) 배치학습과 온라인 학습 

머신러닝 시스템을 분류하는 데 사용하는 다른 기준은 입력 데이터의 스트림으로부터 점진적으로 학습할 수 있는지 여부입니다. 배치 학습과 온라인 학습이 있습니다.

배치 학습이란?

배치학습에서는 시스템이 점진적으로 학습할 수 없습니다. 데이터를 모두 사용해 훈련하기 때문에 오프라인에서 수행되기 때문에 오프라인 학습이라고 합니다. 학습 시스템이 새로운 데이터에 대해 학습하려면 전체 데이터를 사용해서 다시 처음부터 시작해야 합니다. 다행히 전체 과정이 쉽게 자동화 될 수 있어 변화에 적응할 수 있습니다. 따라서 배치 학습은 잘 작동하지만 전체 데이터셋을 사용해 훈련하는 데 몇 시간이 소요될 수 있습니다. 따라서 빠르게 적응해야 한다면 다른 방법이 필요합니다

온라인 학습이란?

온라인 학습에서는 데이터를 순차적으로 한 개씩 또는 미니배치라 부르는 작은 묶음 단위로 주입하여 시스템을 훈련시킵니다. 새로운 데이터 샘플을 학습하면 학습이 끝난 데이터는 더 이상 필요하지 않으므로 버리면 됩니다. 따라서 매우 큰 데이터셋을 학습하는 시스템에도 온라인 학습 알고리즘을 사용할 수 있습니다. 여기서 중요한 건 학습률입니다. 변화하는 데이터에 얼마나 빠르게 적응할 것인지를 학습률이라고 하는데 학습률을 높게 하면 시스템이 데이터에 빠르게 적응하지만 예전 데이터를 금방 잊어버리고 학습률이 낮으면 속도가 느립니다. 온라인 학습에서 가장 큰 문제는 시스템에 나쁜 데이터가 주입될 때 시스템 성능이 점진적으로 감소합니다.

 


푸키였습니다 좋은 하루 되세요! 

마음에 드셨다면 공감 부탁드립니다. 오류가 있다면 댓글로 알려주세요. 끊임없이 수정하고 있습니다. 

 

728x90

+ Recent posts