분류 전체보기 (25) 썸네일형 리스트형 AWS Cloud Practitioner Certification 시험 준비 시작! IntroAWS Cloud Practitioner Certification을 위한 시험을 6월 30일 예약했다.13만원이라는 거금과 괜히 떨어지면 어떡하지라는 생각에 미뤄왔었는데, 이제는 봐야할 때가 된 것 같다. 요새 회사에서 서버 구성도 만지고 있어서 시험을 보기로 결심을 굳혔다.AWS 클라우드 자격증 중 가장 쉬운 인증시험이니, 클라우드 구성에 대한 큰 그림을 잡기에 좋을 것 같다.'일단 끊으면 어떻게든 공부를 시작하겠지'하는 마음으로 월급이 들어오자마자 카드를 긁었다.나에게 남은 시간은 25일정도...!어떻게 공부할지 이것저것 찾아보고 계획을 짜보려고 한다. 시험 진행내용90분간 객관식 또는 복수 응답 65문제를 풀어야한다. (채점되는 문제 50문제와 점수에 반영되지 않는 15문제; 특이하네)1.. 항해 백엔드 플러스 4기 생생후기 안녕하세요, 저는 3년차 머신러닝 엔지니어로 근무중인 신은성입니다. 최근 항해 플러스(항플) 백엔드 코스를 수료했는데, 그 경험이 너무 좋았어서 공유하고자 합니다.1. 자기소개저는 대학교에서 통계학과 심리학을 전공하고, 졸업 후에는 머신러닝 엔지니어로 경력을 시작했습니다. 초기에는 데이터 분석과 모델 개발에 주로 집중했었습니다. AI업무를 한다는 건 정말 멋진 일이였지만, 모델 개발을 한다는 건 절대 쉬운 일이 아니였습니다. 가장 빠른 방법은 오픈소스 모델을 가져다가 학습시키고, 결과 뽑아보고, 좋으면 적용하고, 아니면 다른 걸 찾아보는 프로세스였습니다. 이런 과정들이 계속 반복되면서, 회의감이 쌓였습니다. 저는 제 지식과 판단이 녹아든 제품을 만드는 개발자가 되는 게 꿈인데, 이렇게 반복적으로 모델학습.. (파이썬) list와 array의 차이점 파이썬 자료 구조에는 list와 array가 있다. list는 메모리를 할당받은 주소부터 차례로 리스트 크기만큼의 메모리를 할당받는다. 또, list는 리스트 내 타입이 다른 데이터들을 가질 수 있다. 예를 들어, ['1', 2, '3', 4]처럼 string과 int를 한 번에 담을 수 있다. 반면, array는 메모리를 할당받을 때, 컴퓨터가 알아서 남은 메모리 주소를 할당해준다. 리스트처럼 데이터들이 붙어있는 것이 아니라 각자 띄어져있어도 무관하다는 뜻이다. 이러한 array의 특성 덕분에 대용량의 데이터를 다룰 때 메모리 관리가 더 효율적이다. array는 같은 자료형만을 담을 수 있다. list - 서로 다른 타입의 데이터 저장 가능 - 메모리 할당받을 때, 일체로 할당 (테트리스처럼) arra.. DecisionTree https://www.youtube.com/watch?v=7VeUPuFGJHk x variables : x1, x2, x3,...., xn y variable : y (binary 0/1) 에 대해 각 x feature들이 y 값에 대해 어떤 연관이 있는지 확인. 예를 들어, x1 >500 일 때, y = 1인 경우 80 y = 0인 경우 30 x1 500일 때, 1 - (80/110)^2 - (30/110)^2과 x1500일 때와 x1 classification with localization (one object per image) https://www.youtube.com/watch?v=GSwYGkTfOKk Image Classification -> Image Classification with localization -> Detection 우리가 당장 인터넷을 켜서 AI 비전 인식에 대해 검색을 하면, 나오는 최신 기술은 이미지 내에 object의 갯수가 몇 개이던 그리고 클래스 종류가 다양하던 간에 다 찾아내는 Object Detection과 픽셀 단위로 물체의 경계선까지 인식하는 Image Segmentation이다. 하지만, 이미지 분류에서 시작한 이미지 인식 기술이 앞의 최신 기술들로 갑자기 발전했을까. 이미지 분류 기술이 확실하게 입증되자 사람들은 이미지 내 물체의 클래스와 위치에 대해 연구하기 시작했다. 처음에는 이미.. (part 1) A Bit of Progress in Natural Modeling by J GoodMan(2001) 자연어 처리 기법이 어떤 식으로 발전했는지 N-grams, Clustering, Caching, Smoothing, Skipping models, sentence-mixture 모델 등에 대해 이야기하면서 간략하게 알려주는 논문이다. 2001년에 나온 논문이라 SOTA 기법들에 대한 내용은 없지만, 전체적인 흐름을 읽기엔 좋을 듯 하다. 73쪽의 방대한 분량이라 파트를 몇 개 나눠서 정리하려 한다. 자연어 모델은 보통 시작을 전에 있던 단어 배열의 확률을 가지고 타겟 단어의 확률을 예측하는 것이 기본이다. 수식으로 표현하면, P(w_1w_2...w_i) = P(w1)P(w_2|w_1)P(w3|w_1w_2) ...P(wi|w_1w_2...w_i-1) 이렇게 정리되는데, P(w1)이나 P(w_2|w_1)과 .. word2vec 참고자료: https://towardsdatascience.com/word2vec-from-scratch-with-numpy-8786ddd49e72 import re def tokenize(text): # obtains tokens with a least 1 alphabet pattern = re.compile(r'[A-Za-z]+[\w^\']*|[\w^\']*[A-Za-z]+[\w^\']*') return pattern.findall(text.lower()) def mapping ( text ) : word_to_id = {} id_to_word = {} for i, word in enumerate(set(text)) : word_to_id[word] = i id_to_word[i] = word ret.. selectional preference and sense disambiguation <선택적 선호도와 중의성 해소> Resnik(1997) Abstract 트레이닝 데이터의 부족은 문장 중의성 해소를 위한 코퍼스 기반의 접근의 큰 문제 점이였다. 선택적 선호도는 전통적으로 모호성과 연관되어있다. 이 논문은 어떻게 선택적 선호도의 통계적 모델이 직접 manual annotation of selection restrictions 또는 supervised training 없이도 중의성 해소에 사용될 수 있는지 보여준다. Introduction selectional constraints와 word sense disambiguation이 서로 밀접한 관련이 있다는 사실은 오래전부터 관찰되어왔다. 물론, most computational settings에서 대표적인 sense disambiguation의 예는 Katz and Fodor's use of.. 이전 1 2 3 4 다음