검색 본문
코세라 www.coursera.org/ 해외 대학교 온라인 강의, 컴퓨터, 금융, 경제, 의학, 물리, 인문학 정보 안내. 인스타그램 페이스북 유튜브 엑스
blog.naver.com Dionysos의 HISTORY Coursera: Learn career skills 경력성장 지원 앱 35 소개글> - Coursera는 세계적 수준의 기업 및 대학의 전문가와 함께 학습하여 직무와 관련된 수요가 높은 기술을 성장시킬 수 있는 커리어 성장 앱 입니다. <앱아이콘 및 앱정보> - CI는 서비스명인 Coursera를 그대로 사용했습니다. - 카테고리는 교육으로 되어 있습니다. <앱의 주요기능> COURSERA를 사용하면 다음을... 2024.05.19 블로그 검색 더보기 jnwooo.tistory.com 조진우 블로그 Coursera 강의 / Machine Learning Specialization (Week 5) 20 Week 2: Neural Network Training 신경망 훈련과 활성화 함수 이해 다중 클래스 분류와 관련된 개념 역전파 알고리즘 및 신경망의 추가 개념 소개 Andrew Ng 교수님의 Machine Learning Specialization 강의를 각 주마다 내용을 정리해서 업로드합니다. 공부 목적으로 필기하는 내용으로 틀린 점 있을 수 있습니다. 1... Ai Machine Learning Softmax Neural Network coursera 코세라 andrew ng 앤드류 응 2024.03.19 Coursera 강의 / Machine Learning Specialization (Week 4) Coursera 강의 / Machine Learning Specialization (Week 6) moonyacode.tistory.com 무냐의 개발일지 [Coursera] Data Structure _Week1 / Stacks & Queues 1. Stacks (LIFO) 쌓여있는 형태 (책을 쌓아놓은 형태) 나중에 들어간게 먼저 나온다 Abstract data type - Push (Key) : adds key to collection - Key Top() : returns most recently-added key - Key Pop() : removes and returns most recently-added key - Boolean Empty() : are there any elements? stack은 이 balance를 track 하기 좋은 방법이다 이용 : compiler, 많은 알고리즘에 2. Queue (FIFO) 줄 서있는것과 같다. 먼저 쌓인것이 먼저 나간다. - Enqueue(Key) : adds key to collection - Key Dequeue() : removes and return least recently-added key - Boolean Empty() : are there any elements ? | Queue Implementation with Linked List Enqueue(a) - Euqueue(b) 하면, a 뒤에 b가 온다 Dequeue() 하면 가장 먼저 온 a가 return되고 사라진다 다 끝내고 마지 3. Tree Binary는 left, right가 있다 * 구조 : Parents (ancestor) - Child (descendant) tree * 용어 : Root : 맨 위에 있는 애 the top node in the tree Siblings : nodes sharing the same parent Leaf : node with no children Interior node : non-leaf Level : 1 + number of edges(선) between root and node - Root의 level = 1, 그 아래는 2 46 쌓여있는 형태 (책을 쌓아놓은 형태) 나중에 들어간게 먼저 나온다 Abstract data type - Push (Key) : adds key to collection - Key Top() : returns most recently-added key - Key Pop() : removes and returns most recently-added key - Boolean Empty() : are there any elements? stack은 이 balance를 track 하기 좋은 방법이다 이용 : compiler, 많은 알고리즘에 2024.04.07 [Coursera] Data Structure _Week1 / Arrays & Lists [Coursera ML Specialization] C2 Neural Networks / Week3 (머신러닝 적용하기) zxcvbb.co.kr 리뷰어 리뷰남자 온라인 학습 플랫폼 Coursera(코세라), Udemy(유데미), edX 특징 장단점 추천코스 3 [목차] 온라인 학습의 인기가 높아지면서 다양한 학습 플랫폼이 등장했습니다. 이번 글에서는 Coursera, Udemy, edX를 중심으로 각 플랫폼의 특징, 장단점, 그리고 추천 코스를 살펴보겠습니다. Coursera(코세라) 특징 장단점 추천코스 Coursera(코세라) 홈페이지 Coursera는 세계적인 대학과 기업과의 협업을 통해 다양... 2024.05.17 hsw-ohs.tistory.com Shawn Oh Coursera CNN w1 필기노트 -Shawn Oh 1. Computer Vision CNN을 Image Classification(영상 인식), Object Detection(물체 감지), Neural Style Transfer(컨텐츠의 특정 스타일 변환) 등에 화용할 수 있다. 문제는, 이미지 처리 과정에서 1000x1000 색채 이미지만 다뤄도 입력 벡터인 x의 크기는 300만이 된다. 만약 은닉층에 1000개 유닛이 있고 fully-connected라면 이 첫 layer에서만 파라미터가 30억 개 발생한다. 파라미터가 이렇게 많으면 데이터를 다루는 것 자체도 메모리에 큰 무리이고, 과적합 문제가 발생할 수도 2. Edge Detection ex. convolution(합성곱)을 본격적으로 알아보기에 앞서, edge detection으로 convolution의 기본 원리를 알아보자. 다양한 방향으로 detection이 가능하겠지만, 이번에는 vertical(수직), horizontal(수평) 방향으로 진행해 보자. vertical/horizontal detection은 말 그대로, 수직/수평 모서리(경계)를 구별해 내는 것이다.(아래 그림과 같이) 기본적인 진행은 입력벡터인 이미지 행렬과 필터의 합성곱으로 이루어진다. 필터를 입력벡터 상의 각 위치에 대응시켜 가며 구한 합성곱 3. Padding 합성곱을 진행하다 보면 모서리(edge)의 값들은 합성곱에 적게 참여하고, 중앙부는 여러 번 참여하는 것을 알 수 있다. 이렇기에 여러 차례의 합성곱을 진행하다 보면 가장자리 영역에 대한 정보를 잃을 위험이 있다. 또한, 합성곱을 여러 차례 진행하다 보면 이미지 자체가 너무 작아져서 정보의 양이 크게 줄어드는 문제도 있다. 이를 방지하기 위해, 입력벡터의 테두리에 몇 줄을 추가한다.(주로 그 값은 0으로 하는 경우가 많다.) 이를 Padding이라고 한다. (padding은 양옆에 붙이기에 사이즈 상에서는 +2p의 효과가 있다.) 4. Stride 합성곱 연산 과정에서 계산 효율성, 출력 이미지 크기 조절, 특징 추출, 과적합 방지 등의 목적을 위해 stride라는 작업을 하기도 한다. stride는 '성큼성큼 걷다'는 뜻을 갖고 있는데, 이는 이전에 진행했던 필터를 통한 합성곱 연산을 s(stride수)만큼씩 건너뛰며 진행하는 것이다. 이렇게 건너뛰는 건 좌우, 상하 모두 적용된다. 이를 통해 출력벡터의 크기를 줄일 수 있다. 이전처럼 n, f, p의 수를 이용하자면, 출력 벡터의 크기는 ((n+2p-f)/s + 1)x((n+2p-f)/s + 1)이 된다. 이때 보통은 (n 5. convolution over volume 색채 이미지를 생각해 보면, 입력벡터인 이미지는 nxn의 2차원 행렬이 아닌 nxnx3의 3차원 행렬이다. 이런 경우는 어떻게 처리할까? 또, 경우에 따라서는 필터 여러 개로 동시에 합성곱을 계산하는 경우도 있다.(Ex. 수직, 수평 필터) 이런 경우는 어떻게 처리할까? 전자의 경우에는 입력벡터의 사이즈가 nxnx3이기 때문에, 필터의 사이즈도 fxfx3으로 맞춰줘야 한다. 이를 일반화하여 입력벡터 사이즈가 nxnxn_c이라면, 필터 사이즈도 fxfxn_c이어야 한다.(n_c의 c는 channel이다.) (이때의 n_c는 chann 6. convolution layer 실제 CNN에서는 이전에 살펴본 합성곱 계산들이 layer마다 일어난다. 이러한 합성곱 과정을 layer마다 쌓아놓은 구조가 CNN의 구조인 것이다. 이제 한 layer에 대해 배운 내용을 정리해 보자.(이 layer는 L번째 layer라고 하자. H는 Height, W는 Width, c는 channel) input size : n_H[L-1] x n_W[L-1] x n_c[L-1] filter size : f[L] padding : p[L] stride : s[L] number of filters : n_c[L] output si 7. Pooling CNN 과정 중 계산 효율성, 특징 추출, 과적합 방지 등의 목적을 위해 Pooling이라는 단계를 진행하기도 한다. 방식은 합성곱 연산과 비슷하다. f 크기의 필터를 s의 stride로 왼쪽 상단부터 진행하는데, max-pooling인 경우는 해당 영역의 최댓값을, average-pooling의 경우는 해당 영역 항들의 평균값을 계산한다. 아래 그림은 4x4의 입력벡터에 f=2인 필터를 s=2로 적용한 max-pooling 예시이다. pooling의 특징으로는 학습하는 파라미터가 없고, channel마다 독립적인 연산을 수행한다는 8. CNN 예시 그렇다면, 이제 CNN의 전체 과정을 예제 문제로 알아보자. 전체 과정 개요는 다음과 같다. Input(32,32,3) -> CONV1(f=5,s=1,n_c=6) -> POOL1(f=2,s=2) -> CONV2(f=5,s=1,n_c=16) -> POOL2(f=2,s=2) -> FC3(120,1) -> FC4(84,1) -> Softmax(10 outputs) (FC는 Fully-Connected인 layer를 의미한다. 최종 활성함수는 Softmax를 활용하고, 0~9의 숫자를 판단하는 모델이라고 하자.) (activation sh 9. CNN 특징 그렇다면, 이미지 인식 분야에서 왜 CNN을 사용하는 것인가? 두 가지 측면이 있다. 1) Parameter sharing FC layer에서는 모든 뉴런이 서로 연결되어 있어, 엄청난 양의 파라미터가 필요하다. 이를 따로따로 전부 학습하는 건 메모리상으로도 무리이고, 과적합의 문제도 피하기 어렵다. 하지만 수직 경계를 인식하기 위해 vertical detection filter를 썼던 것처럼, 이미지 전체에서 한 필터로 어떤 특징을 인식하는 과정을 다각도로 진행한다면 훨씬 적은 파라미터 수로도 이미지를 잘 인식해 낼 수 있다. 즉 9 CNN을 Image Classification(영상 인식), Object Detection(물체 감지), Neural Style Transfer(컨텐츠의 특정 스타일 변환) 등에 화용할 수 있다. 문제는, 이미지 처리 과정에서 1000x1000 색채 이미지만 다뤄도 입력 벡터인 x의 크기는 300만이 된다. 만약 은닉층에 1000개 유닛이 있고 fully-connected라면 이 첫 layer에서만 파라미터가 30억 개 발생한다. 파라미터가 이렇게 많으면 데이터를 다루는 것 자체도 메모리에 큰 무리이고, 과적합 문제가 발생할 수도 cnn padding coursera convolution 딥러닝 pooling stride edge detection object detection Image Classification 2024.04.08 Coursera CNN w1 프로그래밍 -Shawn Oh 통합웹 더보기
서비스 안내 스토리의 글을 대상으로 검색결과를 제공합니다. 자세히보기 카카오벤처스 IT 분야 크리에이터 미국 부유층이 열광하는 전신 MRI 스캔 8 영향’을 살펴보겠습니다. *Dr. Lungren은 영상의학 의사이자 마이크로소프트, 스탠포드에서 연구와 강의를 지속하고 있으며 그가 참여한 의료 AI 강의는 Coursera의 인기 강의로 자리매김하였습니다. | 우선순위는 멀티모달과 안전 MS HLS는 “모두가 더 많은 걸 성취하게 하자”라는 자사 비전에 따라 멀티모달을... MRI 디지털헬스케어 헬스케어 2024.04.24 브런치스토리 검색 더보기 story.kakao.com NomadSirius eBook NomadSirius eBook - 카카오스토리 M.AGRIPPA.L.F.COS.TERTIUM.FECIT. CavourMnuchinKissinger LISTEN&LISTEN language institute. AE. Coursera 日語 中語 伊語 獨語 WEALTH economic literacy institute, CFA. CASE legal sense institute, AL... 2023.11.17 카카오스토리 검색 더보기 IT 크리에이터 보기
Coursera’s Mission, Vision, and Commitment to Our Community... about.coursera.org/ 웹수집 Coursera provides access to world-class learning by partnering with 275+ world-class universities... Coursera Blog | Online learning news for learners, educators,... blog.coursera.org 웹수집 Get the latest stories and product updates from Coursera, the global online learning platform... Coursera Shibboleth Metadata coursera-shibboleth-metadata.coursera.org/ 웹수집 사이트 더보기