https://school.programmers.co.kr/learn/courses/30/lessons/214289 프로그래머스SW개발자를 위한 평가, 교육, 채용까지 Total Solution을 제공하는 개발자 성장을 위한 베이스캠프programmers.co.kr너무너무 어려웠는데 GPT 선생님도 명쾌한 답을 주시지 않았다 문제 해설보고 풀었는데.. 다음에 꼭 다시 풀어보기🤙def solution(temperature, t1, t2, a, b, onboard): k = 1000*100 t1 += 10 t2 += 10 temperature += 10 dp = [[k for _ in range(51)] for _ in range(len(onboard))] # 초기값..
https://school.programmers.co.kr/learn/courses/30/lessons/214288# 프로그래머스SW개발자를 위한 평가, 교육, 채용까지 Total Solution을 제공하는 개발자 성장을 위한 베이스캠프programmers.co.kr사실 너무너무 어려워서 GPT 선생님과 함께 했다.. 다음에 꼭 다시 풀어보기🤙🚩 풀이 과정(1) 상담 유형별 멘토 배정 조합 생성상담 유형 별로 유형별 멘토가 몇 명씩 배정될 것인지 경우의 수를 조합으로 모두 고려하였다.예를 들어 1번 유형의 경우 1. 5명의 멘토를 3가지 유형에 배정해야 하고2. 한 유형에 반드시 1명의 멘토는 배정되어야 한다.따라서 아래와 같은 조합이 나온다.# k=3, n=5 일 경우[[3, 1, 1], [2, 2..
https://school.programmers.co.kr/learn/courses/30/lessons/159993# 프로그래머스SW개발자를 위한 평가, 교육, 채용까지 Total Solution을 제공하는 개발자 성장을 위한 베이스캠프programmers.co.kr📌 BFS로 푼 코드from collections import dequedef bfs(maps, x, y, n,m, target, time): visited = [[False for _ in range(m)] for _ in range(n)] queue = deque([(x,y,time)]) visited[x][y] = True direction = [(-1,0), (0,1), (1,0), (0,-1)] w..
💻 포스팅을 하게 된 계기회사에서 일하는 중 우연히 커리어톡으로 신한 DS 금융 SW 아카데미 5기 모집글을 보게 되었습니다. 생각해보니 벌써 졸업 후 2년의 세월이 흘렀는데 바쁘고 피곤한 일상들을 보내다 보니 열심히 한 만큼 제대로 된 후기 하나 남겨놓지 못한 것이 아쉬움으로 남아있었고, 시간이 지나도 다른 후기가 많지 않아 보여서 조금이나마 도움이 되었으면 하는 마음이 생겨 해당 포스트를 작성하게 되었습니다😀📃 아카데미 후기어쩌다 신한 DS 금융 SW 아카데미에 가게 되었나!저는 컴공 졸업생이지만 COVID-19 때문에 3,4학년 전공 수업을 주로 온라인으로 듣게 되었습니다.때문에 졸업 프로젝트 수업을 제외하고는 실습 수업보단 이론 + 혼자 코딩 시간이 많은 것이 아쉬웠습니다.또한, 전공수업..
1️⃣ 언어 모델(Language Modelling)에서 다음 토큰의 확률 예측언어 모델링(Language Modelling)에서 다음 토큰의 예측은 단어 집합(Vocabulary)에 존재하는 단어들에 대한 Softmax Regression 값이 된다.Softmax Regression: 언어 모델이 단어 집합(Vocabulary)에서 다음 단어를 선택할 때 확률을 계산하는 방식, 모델이 각 단어에 대한 점수를 계산한 후, Softmax를 적용해 확률이 가장 높은 단어를 예측함.이를 수식으로 나타내면 아래와 같다.온도(Temperature)는 Softmax Regression의 각 다음 토큰이 샘플링시에 뽑힐 확률을 뾰족하게 만들어 주거나 평평하게 만들어준다.온도(Temperature) 값이 작을 경우 →..
창발 능력(Emergent Abilites)1️⃣ Emergent Abilities Paper Emergent Abilities of Large Language Models (2022) 2️⃣ OverviewEmergent abilities of large language models의 핵심 idea큰 LLM 모델 학습 과정에서 특정 임계치를 넘으면 기존의 작은 LLM 모델에서 발생하지 않았던 새로운 능력이 발현됨. 3️⃣ Abstract언어 모델의 확장은 다양한 하위 작업에서의 성능과 샘플 효율성을 예측 가능하게 향상시키는 것으로 나타났다.그러나 이 논문에서는 큰 언어 모델(large language models)의 창발 능력(emergent abilities)라는 예측 불가능한 현상(unpredict..
In-context learning1️⃣ In-context learning 이란📌 BERT 방식BERT는 언어를 배우는 모델처음에는 아주 많은 텍스트 데이터를 학습하면서 "언어 자체를 이해하는 모델"로 훈련된다.이 과정에서 문장 속 일부 단어를 가려놓고 어떤 단어가 들어갈지 맞히는 방식(MLM)과 문장 관계를 예측하는 방식(NSP)을 사용한다.이때 BERT의 모든 파리미터(가중치)가 업데이트되면서, 문맥과 의미를 이해하는 능력을 갖추게 된다.서브테스크(Subtask)란?BERT는 기본적으로 언어를 이해하지만, 우리가 실제로 하고 싶은 일은 여러 가지이다.언어와 관련된 대표적인 서브테스크(세부 과제)에는 다음과 같은 것들이 있다.요약: 긴 문서를 짧게 정리하는 작업번역: 한 언어를 다른 언어로 변환하는..
토크나이징(Tokenizing)1️⃣ 토큰(Token) 이란자연어 처리(NLP) 분야에서 "토큰(Token)"은 핵심적인 개념 중 하나이다.정의: 토큰은 텍스트를 구성하는 개별 단위를 의미한다. 예를 들면, 문장 "나는 학교에 간다."를 단어 단위로 토큰화하면 "나는", "학교에", "간다" 등의 토큰으로 나눌 수 있다.토큰화(Tokenization): 토큰화는 주어진 텍스트를 개별 토큰들로 분리하는 과정을 의미한다. 토큰화의 기준은 주로 공백, 구두점, 특수 문자 등을 기준으로 하지만, 언어나 문맥에 따라 다를 수 있다. 예를 들어, 한국어에서는 형태소 분석을 통해 토큰화를 수행하기도 한다.토큰의 종류:토큰화의 기준에 따라 여러 종류의 토큰이 생성될 수 있다.단어 토큰: "I love apple" 에서..
1️⃣ OpenAI - ChatGPT - GPT만든기업OpenAI서비스명ChatGPT사용한 LLM 모델GPT-3.5, GPT-4(유료 사용자만 이용가능)월사용료무료 사용가능, GPT-4를 포함한 Plus 기능을 사용하고자 할 경우, 월 $20($22)접속 URLhttps://chatgpt.com/2️⃣ Google - Bard - PaLM2만든기업Google서비스명Bard사용한 LLM 모델LaMDA → PaLM2(5450억 개의 파라미터를 가지고 있다, GPT는 1750억개)월사용료무료 사용 가능접속 URLhttps://gemini.google.com/app?hl=ko3️⃣ Naver - Clova X만든기업Naver서비스명Clolva X사용한 LLM 모델HyperCLOVA X월사용료무료 사용 가능접속 ..
1️⃣ LLM(Large Language Model)이란LLM은 "Large Language Model"의 약자로, 대규모 데이터 세트에서 훈련된 인공지능 언어 모델을 의미한다. 이러한 모델은 자연어 처리(NLP, Natural Language Processing) 작업에 널리 사용되며, 텍스트 생성, 분류, 번역, 질문 응답, 감정 분석 등 다양한 작업을 수행할 수 있다.일반적으로 LLM은 수백만 개 이상의 매개변수(parameter)를 가지고 있으며, 이는 모델이 다양한 언어 패턴과 구조를 학습할 수 있게 해준다. 그 결과로, LLM은 상당히 정교하고 자연스러운 텍스트를 생성할 수 있다.GPT3는 1750억개, 타 모델들도 기본 몇 십억~몇 백억개의 파라미터를 가진다.예를 들어, GPT(Generat..