검색 본문
namu.wiki 원소 기호 - 나무위키 24He 원소 기호 118개중 한 글자는 14개, 두 글자는 104개다. 확장 주기율표에서 보이는 세 글자 원소 기호...J는 한때 105번 원소에서 Jl로, 113번 원소에서 Jp로 사용될 것으로 예측되었으나 각각 Db, Nh가... 개요 역사 상세 그 외 번외: 원소 기호를 이용한 화학어 원소 기호처럼 보이지만 원소 기호가 아닌 것 2024.04.11 웹문서 검색 더보기 최대공약수 - 나무위키 수 체계 - 나무위키 yj0823.tistory.com YYY023 '더브늄(dubnium)'특성,용도,환경적 영향,제품 전에 안녕하세요, 여러분! 오늘은 과학계에서 매우 흥미로운 원소, 바로 '더브늄(Dubnium)'에 대해 이야기해 볼까 합니다. 더브늄은 주기율표에서 원소 기호 Db와 원자 번호 105를 가진 인공적으로 합성된 원소입니다. 더브늄은 초중원소 그룹에 속하며, 연구소에서만 극소량 생성되고, 그 특성은 아직 완전히 밝혀지지... 2023.12.15 블로그 검색 더보기 data-is-power.tistory.com 호랑이의 일상기록 [경영정보시각화능력] Chapter 02 데이터 해석 및 활용 7 수치나 기호 자체 예시: 회원의 가입내역, 대리점의 매출내역, 회원의 시스템 로그인 시간 등 정보(Information) 의사결정에 유용하게 활용할 수 있도록 데이터를 처리한 결과물 다양한 정보를 구조화해 유의미한 정보로 분류 데이터 간 상관/연관관계 속에서 의미 부여 유용성은 상황에 따라 다름 예시: 회원의 가입... DBMS 데이터마이닝 빅데이터 데이터 활용 데이터 해석 데이터의 종류 경영정보시각화 능력 기초 통계 확률과 확률분포 데이터파일시스템 2024.05.14 kk-yy.tistory.com Yoonstory [밑시딥②] 5. 순환 신경망(RNN) 5.1 확률과 언어 모델 word2vec 복습 5.1.1 word2vec을 확률 관점에서 바라보다 [식 5.1] CBOW 모델 맥락으로부터 타깃을 추측 [식 5.1]의 사후확률을 모델링 (* 사후 확률 : W_t-1, W_t+1 이 주어졌을 때 W_t가 일어날 확률) 윈도우 크기가 1일 때의 CBOW 모델 왼쪽 맥락만 고려 맥락을 왼쪽 윈도우로만 한정 왼쪽 두 단어만을 맥락으로 생각 [식 5.3] 손실함수를 최소화하는 가중치 매개변수를 찾는 것 [식 5.2] CBOW 모델이 출력할 확률 [식 5.3] CBOW 모델이 다루는 손실 함수 CBOW 5.2 RNN이란 RNN : 순환하는 신경망 5.2.1 순환하는 신경망 데이터가 같은 장소를 반복해 왕래하려면.... → 닫힌 경로, 순환하는 경로 (혈액) RNN의 특징 순환하는 경로(닫힌 경로)가 있음 순환 경로를 따라 데이터는 끊임없이 순환 데이터가 순환하며 과거의 정보를 기억하는 동시에 최신 데이터로 갱신 RNN에 이용되는 계층 'RNN 계층'- x_t 입력, t 시각- 시계역 데이터 (x_0,. x-1, ..., x_t, ...)가 RNN 계층에 입력- 입력에 대응하여 (h_0, h_1, ..., h_t, ...) 출력- 각 시각에 입력되는 5.3 RNN 구현 Truncated BPTT 방식의 학습으로, 가로 크기가 일정한 일련의 신경망 만듦 길이가 T인 시계열 데이터 입력 각 시각의 은닉 상태 T개 출력 모듈화 : 옆으로 성장한 [그림 5-16]의 신경망을 '하나의 계층'으로 구현 상하 방향의 입력과 출력을 각각 하나로 묶으면, 옆으로 늘어선 일련의 계층을 하나의 계층으로 간주 한 단계의 작업을 수행하는 계층 → RNN 계층 T개 단계분의 작업을 한꺼번에 처리하는 계층 → Time RNN 계층 5.3.1 RNN 계층 구현 RNN의 순전파 수식 [식 5.10] 데이터를 미니배치로 모아 처 5.4 시계열 데이터 처리 계층 구현 RNN을 사용하여 '언어 모델' 구현 RNN을 사용한 언어 모델 RNN Language Model = RNNLM 5.4.1 RNNLM의 전체 그림 가장 단순한 RNNLM의 신경망- 왼쪽 : RNN 계층 구성- 오른쪽 : 이를 시간축으로 펼친 신경망 첫 번째(가장 아래) 층은 Embeddimg 계층- 단어 ID를 단어의 분산 표현(단어 벡터)으로 변환 분산 표현이 RNN 계층으로 입력- RNN 계층은 은닉 상태를 다음 층으로(위쪽으로) 출력- 동시에 다음 시각의 RNN 계층으로(오른쪽으로) 출력 RNN 계층이 위로 출력한 은닉 상태는 5.5 RNNLM 학습과 평가 RNNLM을 구현하여 실제로 학습 & 성능 평가 5.5.1 RNNLM 구현 RNNLM에서 사용하는 신경망을 SimpleRnnlm 클래스로 구현 초기화 메서드 # coding: utf-8 import sys sys.path.append('..') import numpy as np from common.time_layers import * class SimpleRnnlm: def __init__(self, vocab_size, wordvec_size, hidden_size): V, D, H = vocab_siz 5.6 정리 이번 장 주제 '순환 신경망(RNN)' RNN : 데이터를 순환시킴으로써 과거에서 현재, 미래로 데이터를 계속해서 흘려보냄→ 이를 위해 RNN 계층 내부에 '은닉 상태' 기억하는 능력 추가 언어 모델 만듦, 단어 시퀀스에 확률 부여 & 지금까지 단어 시퀀스로부터 다음에 출현할 단어 확률 계산 RNN은 순환하는 경로가 있고, 이를 통해 내부에 '은닉 상태'를 기억할 수 있다. RNN의 순환 경로를 펼침으로써 다수의 RNN 계층이 연결된 신경망으로 해석할 수 있으며, 보통의 오차역전파법으로 학습할 수 있다(BPTT). 긴 시계열 데이터 46 word2vec 복습 5.1.1 word2vec을 확률 관점에서 바라보다 [식 5.1] CBOW 모델 맥락으로부터 타깃을 추측 [식 5.1]의 사후확률을 모델링 (* 사후 확률 : W_t-1, W_t+1 이 주어졌을 때 W_t가 일어날 확률) 윈도우 크기가 1일 때의 CBOW 모델 왼쪽 맥락만 고려 맥락을 왼쪽 윈도우로만 한정 왼쪽 두 단어만을 맥락으로 생각 [식 5.3] 손실함수를 최소화하는 가중치 매개변수를 찾는 것 [식 5.2] CBOW 모델이 출력할 확률 [식 5.3] CBOW 모델이 다루는 손실 함수 CBOW 자연어처리 rnn 순환신경망 시계열 데이터 언어 모델 오차역전파법 Truncated BPTT 밑시딥2 밑바닥부터 시작하는 딥러닝 2 BPTT 2024.02.19 yundi.tistory.com 코딩하는 딱복 [정처기] 실기 2023년 2회 12 알맞는 '기호' 를 고르시오 - 프로그램 내에 있는 결정포인트 내의 모든 각 개별 조건식에 대한 모든 가능한 결과 (참/거짓)에 대해 적어도 한번 수행한다. - 소프트웨어 테스트 수행 시 소스코드를 어느 수준까지 수행하였는가 를 나타내는 기준을 나타낸다. - 실제 업무에서는 다양한 툴을 사용하여 테스팅 수행한다... 정보처리기사 실기 2회 정처기 정처기 실기 2023년 2회 2024.03.26 coldjellyfish0227.tistory.com #일간코딩챌린지 [밑바닥부터 시작하는 딥러닝 2] - 5. 순환 신경망(RNN) I 16 파이 기호는 모든 원소를 곱하는 총곱을 의미함. 동시 확률은 사후확률의 총곱으로 나타낸다. 확률의 곱셈정리로도 나타낼 수 있다. P(A,B) = P(B|A)P(A) P(A,B) = P(A|B)P(B) A,B가 모두 일어날 확률 P(A,B)를 위와 같이 두가지로 나타낼 수 있다. P(W1..Wm)을 사후확률로 나타내면 다음과 같다... 2024.02.16 통합웹 더보기