검색 본문
blog.naver.com 텅스텐연구개발 마지막 악티늄족 원소, 로렌슘(Lr) 4 원소 #인공원소 #로렌슘 #초페르뮴원소 #핵융합반응 로렌슘 맨 마지막 악티늄족 원소 원소명: 로렌슘(Lawrencium) 원자번호: 103 원소기호: Lr 원자량: (266) g/mol 특징: 가장 긴 반감기 11시간(266 Lr) 발견: 기오르소 등(미국, 1961년), 플레로프 등(러시아, 1965년) 어원: 미국 물리학자 어니스트 로렌스 (Ernest... 2024.04.17 블로그 검색 더보기 yj0823.tistory.com YYY023 '로렌슘(lawrencium)'특성,용도,환경적 영향,응용 분야 산업 용도 4.로렌슘의 환경적 영향 5.로렌슘의 응용 산업 6.끝맺음 1. 로렌슘(Lawrencium)이란? 로렌슘은 주기율표에서 매우 희귀하고 신비로운 원소입니다. 원소 기호 Lr와 원자 번호 103을 가지며, 악티나이드 계열에 속합니다. 이 원소는 자연에서 발견되지 않으며, 주로 입자 가속기를 통해 합성됩니다. 로렌슘의 가장... 2023.12.20 gall.dcinside.com mini goldmaster 녹는점 순으로 정리한 화학 원소들의 목록 이름 기호 녹는점 (°C) 헬륨 He (절대 영도에서 조차 표준압에서 고체화되지 않는다.) -272.20(2.5MPa) {표준압 : -314.43433으로 추정} 수소 H -258.975 네온 Ne -248.447 플루오린 F -219.52 산소 O -218.8... 2024.05.25 웹문서 검색 더보기 denise.tistory.com 코린이인 대니스 밑바닥부터 시작하는 딥러닝 Chapter 6 : 학습 관련 기술들 6.1 매개변수 갱신 최적화(optimization) - 손실 함수의 값을 가능한 한 낮추는 매개변수를 찾는 문제를 푸는 것 확률적 경사 하강법(SGD) - 매개 변수의 기울기를 구해, 기울어진 방향으로 매개변수 값을 갱신하는 일을 몇 번이고 반복해서 점점 최적의 값에 다가간 방법 (단숞한 방법이) W는 갱신할 가중치 매개변수, ∂L/∂W 는 W에 대한 손실 함수의 기울기, 나머지는 학습률을 의미한다 class SGD: def __init__(self, lr=0.01): self.lr=lr # lr은 학습률 6.2 가중치의 초깃값 초깃값을 0으로 하면? - 가중치 감소(weight decay) : 가중치 매개변수의 값이 작아지도록 학습하는 방법 (오버피팅이 일어나지 않기 위함) 초깃값을 모두 0으로 해서는 안된다 (정확히는 가중치를 균일한 값으로 설정해서는 안된다) - 오차역전파법에서 모든 가중치의 값이 똑같이 갱신되기 때문이다 - e.g. 2층 신경망에서 첫 번째와 두 번째 층의 가중치가 0이라고 가정하면 순전파 때는 입력층의 가중치가 0이기 때문에 두 번째 층의 뉴런에 모두 같은 값이 전달. 또한 두 번째 층의 모든 6.5 적절한 하이퍼파라미터 값 찾기 하이퍼파라미터 - 각 층의 뉴런 수, 배치 크기, 매개변수 갱신 시의 학습률과 가중치 감소 등 검증 데이터 (validation data) - 하이퍼파라미터의 성능을 평가할 때는 시험 데이터를 사용하여 조정하면 하이퍼파라미터 값이 시험 데이터에 오버피팅되기 때문에 검증 데이터를 쓴다 - 하이퍼파라미터 조정 데이터를 일반적으로 검증 데이터라고 부른다. - 훈련 데이터는 매개변수 학습, 검증 데이터는 하이퍼파라미터 성능 평가, 시험 데이터는 신경망의 범용 성능 평가로 쓰인다 (x_tra 30 최적화(optimization) - 손실 함수의 값을 가능한 한 낮추는 매개변수를 찾는 문제를 푸는 것 확률적 경사 하강법(SGD) - 매개 변수의 기울기를 구해, 기울어진 방향으로 매개변수 값을 갱신하는 일을 몇 번이고 반복해서 점점 최적의 값에 다가간 방법 (단숞한 방법이) W는 갱신할 가중치 매개변수, ∂L/∂W 는 W에 대한 손실 함수의 기울기, 나머지는 학습률을 의미한다 class SGD: def __init__(self, lr=0.01): self.lr=lr # lr은 학습률 2024.05.22 kk-yy.tistory.com Yoonstory [NLP 기초] 6. 게이트가 추가된 RNN 6.2 기울기 소실과 LSTM 기울기 소실을 해결하기 위해 RNN 계층의 아키텍처 근본을 뜯어고쳐야 함 게이트가 추가된 RNN : LSTM, GRU 6.2.1 LSTM의 인터페이스 계산 그래프 단순화 tanh(hW + xW + b) 계산을 tanh라는 직사각형 노드 하나로 그림 LSTM의 인터페이스(입출력)를 RNN과 비교 LSTM 계층의 인터페이스에는 c라는 경로 있음 * 기억 셀 c LSTM 전용의 기억 메커니즘 데이터를 자기 자신으로만(LSTM 계층 내에서만) 주고받는다는 것= LSTM 계층 내에서만 완결, 다른 계츠으로 출력하지 않음 상태 h는 RNN 계 6.3 LSTM 구현 최초 한 단계만 처리하는 LSTM 클래스 구현 T개의 단계 한꺼번에 처리하는 Time LSTM 클래스 구현 LSTM에서 수행하는 계산 수식 [식 6.6] [식 6.7] [식 6.8] [식 6.6]의 네 수식에 포함된 아핀 변환(affine transformation)* 아핀 변환 : 행렬 변환과 평행 이동(편향)을 결합한 형태, xW + hW + b 형태의 식 이를 하나의 식으로 정리해 계산할 수 있음 [그림 6-20] 위와 같이 총 4번을 수행하던 아핀 변환을 단 1회의 계산으로 끝마칠 수 있음 = 계산 속도 빨라짐(행렬 라이 6.5 RNNLM 추가 개선 6.5.1 LSTM 계층 다층화 LSTM 계층 두 개 쌓은 모습 RNNLM으로 정확한 모델 만들기 LSTM 계층깊게 쌓아(계층을 여러 겹 쌓아) 효과 LSTM 계층을 몇 층이라도 쌓아, 더 복잡한 패턴 학습 가능 = 피트포워드 신경망에서 계층 쌓기 몇 층 쌓아야 할까? = 하이퍼파라미터 관련 문제 처리할 문제의 복잡도나 준비된 학습 데이터의 양에 따라 적절하게 결정 * NOTE 구글 번역 GNMT 모델은 LSTM 8층이나 쌓은 신경망 처리할 문제가 복잡하고 학습 데이터를 대량으로 준비할 수 있다면 LSTM 계층을 '깊게' 쌒는 것이 46 기울기 소실을 해결하기 위해 RNN 계층의 아키텍처 근본을 뜯어고쳐야 함 게이트가 추가된 RNN : LSTM, GRU 6.2.1 LSTM의 인터페이스 계산 그래프 단순화 tanh(hW + xW + b) 계산을 tanh라는 직사각형 노드 하나로 그림 LSTM의 인터페이스(입출력)를 RNN과 비교 LSTM 계층의 인터페이스에는 c라는 경로 있음 * 기억 셀 c LSTM 전용의 기억 메커니즘 데이터를 자기 자신으로만(LSTM 계층 내에서만) 주고받는다는 것= LSTM 계층 내에서만 완결, 다른 계츠으로 출력하지 않음 상태 h는 RNN 계 AI 밑바닥부터 시작하는 딥러닝2 2024.02.20 doocong22.tistory.com 두콩이의 코딩일기 [ML] 로지스틱 회귀(Logistic Regression) 1. W가 1이고 b가 0인 그래프 가장 먼저 W가 1이고, b가 0인 그래프를 그려봅시다. x = np.arange(-5.0, 5.0, 0.1) y = sigmoid(x) plt.plot(x, y, 'g') plt.plot([0,0],[1.0,0.0], ':') # 가운데 점선 추가 plt.title('Sigmoid Function') plt.show() 위의 그래프를 통해시그모이드 함수는 출력값을 0과 1사이의 값으로 조정하여 반환함을 알 수 있습니다. x가 0일 때 0.5의 값을 가집니다. x가 매우 커지면 1에 수렴하고, x가 매우 작아지면 0에 수렴합니다. 2. W값의 변화에 따른 경사도의 변화 이제 W의 값을 변화시키고 이에 따른 그래프를 확인해보겠습니다. x = np.arange(-5.0, 5.0, 0.1) y1 = sigmoid(0.5*x) y2 = sigmoid(x) y3 = sigmoid(2*x) plt.plot(x, y1, 'r', linestyle='--') # W의 값이 0.5일때 plt.plot(x, y2, 'g') # W의 값이 1일때 plt.plot(x, y3, 'b', linestyle='--') # W의 값이 2일때 plt.plot([0,0],[1.0,0.0], ':') # 가운데 점선 추가 plt 3. b값의 변화에 따른 좌, 우 이동 이제 b의 값에 따라서 그래프가 어떻게 변하는지 확인해보겠습니다. x = np.arange(-5.0, 5.0, 0.1) y1 = sigmoid(x+0.5) y2 = sigmoid(x+1) y3 = sigmoid(x+1.5) plt.plot(x, y1, 'r', linestyle='--') # x + 0.5 plt.plot(x, y2, 'g') # x + 1 plt.plot(x, y3, 'b', linestyle='--') # x + 1.5 plt.plot([0,0],[1.0,0.0], ':') # 가운데 점선 추가 plt.titl 4. 시그모이드 함수를 이용한 분류 시그모이드 함수는 입력값이 한없이 커지면 1에 수렴하고, 입력값이 한없이 작아지면 0에 수렴합니다. 시그모이드 함수의 출력값은 0과 1 사이의 값을 가지는데 이 특성을 이용하여 분류 작업에 사용할 수 있습니다. 예를 들어 임계값을 0.5라고 정해보겠습니다. 출력값이 0.5 이상이면 1(True), 0.5이하면 0(False)으로 판단하도록 할 수 있습니다. 이를 확률이라고 생각하면 해당 레이블에 속할 확률이 50%가 넘으면 해당 레이블로 판단하고, 해당 레이블에 속할 확률이 50%보다 낮으면 아니라고 판단하는 것으로 볼 수 있습니다 15 가장 먼저 W가 1이고, b가 0인 그래프를 그려봅시다. x = np.arange(-5.0, 5.0, 0.1) y = sigmoid(x) plt.plot(x, y, 'g') plt.plot([0,0],[1.0,0.0], ':') # 가운데 점선 추가 plt.title('Sigmoid Function') plt.show() 위의 그래프를 통해시그모이드 함수는 출력값을 0과 1사이의 값으로 조정하여 반환함을 알 수 있습니다. x가 0일 때 0.5의 값을 가집니다. x가 매우 커지면 1에 수렴하고, x가 매우 작아지면 0에 수렴합니다. ML sigmoid 로지스틱 시그모이드 로지스틱회귀 2024.03.29 통합웹 더보기
서비스 안내 스토리의 글을 대상으로 검색결과를 제공합니다. 자세히보기 story.kakao.com 정용준 정용준 - 카카오스토리 족 Ac T h P a U N p P u A m C m B k Cf Es F m Md N o Lr 원자량 106.42, 원소기호 Pd, 녹는점 1554.9 C, 끓는점 2963 C, 밀도 12.023 g/cm 3 . 주기율표 10족에 속하는 원자번호 46의 백금족원소 로, 1803... 2015.03.19 카카오스토리 검색 더보기