일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
- 양자컴퓨터
- ann
- 아이온큐
- elasticsearch cache
- dbeaver
- TSLA
- Cache
- Aggregation
- vavr
- java crawler
- NORI
- IONQ
- redis
- Selenium
- JPA
- KNN
- api cache
- Elasticsearch
- Query
- 테슬라
- request cache
- mysql
- aggs
- file download
- Docker
- java
- aqqle
- Analyzer
- API
- Elastic
- Today
- Total
목록2025/05 (7)
아빠는 개발자

다시 만들어 보자 369게임의 조건은 이거 였나보다/** * 1) 게임횟수만큼 순회 (100회) * 2) 초기 시작 숫자 : 1 * 3) 현재 숫자 do369메서드 인자로 사용 * 4) do369 - 숫자를 문자열로 변경 * 5) do369 - 문자열에서 3, 6, 9 라는 숫자를 갖는지 체크 * 6) ㄴ 있으면 clap 반환, 없으면 숫자 문자형태로 반환 * 7) 현재 숫자를 말할 사용자 선택 * 8) (현재 숫자-1 % 4) => players 인덱스 * 9) do369의 결과와 인덱스에 해당하는 players를 sout로 출력 */ 대충 작성해 보면public class TSNGameTestTwoMain { public static void main(String[] args) { ..
조만간 라이브코테를 봐야한다..한번도 안해본거라.. 코테 극혐.. 어떤 고마우신 분의 후기를 보니 3,6,9 게임에 여러가지 부가 기능을 추가 하는 것 같은데.. 일단 글에 나와 있는 조건을 구현해 보았다. 1단계 : 주어진 요구사항에 맞게 369 게임 구현2단계 : 오답률에 따른 게임 종료 및 사용자 등 몇 가지 심화 기능과 클래스 추가3단계 : 지역별 다른 규칙의 369 게임을 위해 추상화 및 다형성 적용4단계 : 다양한 지역 동시 게임 진행을 위한 동시성 적용출처: https://kang-james.tistory.com/entry/회고-라이브-코딩-면접-후기 [내 꿈을 JAVA:티스토리] 이조건들을 순서대로 알려주는건가.. 일단 위의 조건대로 구현을 해봤는데.. 이게 맞나.. 뭔가.. 찝찝한데..
아래 3개의 모델로 텍스트 유사도를 비교할 예정 jhgan = jhgan/ko-sbert-stssnunlp = snunlp/KR-SBERT-V40K-klueNLI-augSTSupskyy = upskyy/bge-m3-korean 3개 모델의 차이를 비교해 보면 아래와 같다. 모델Transformer 모델최대 시퀀스 길이 임베딩 차원파인튜닝 데이터STS DevPearsonCosine문서 분류정확도다국어지원jhgan/ko-sbert-stsBert128768KorSTS (한국어 STS)0.8155N/A한국어 전용snunlp/KR-SBERT-V40K-klueNLI-augSTSBert12876840K 말뭉치 + KLUE NLI + 증강 STSN/A (벤치마크 참조)0.8628 (Hugging Face)한국어 전용..
aqqle 에서 뭘 써야 할지.. from sentence_transformers import SentenceTransformer, util# 1) 모델 로드model = SentenceTransformer('jhgan/ko-sbert-sts')# 2) 비교할 문장 리스트sentences = [ "오늘 날씨가 정말 좋네요.", "날씨가 맑아서 기분이 좋습니다."]# 3) 임베딩 생성 (Tensor 반환)embeddings = model.encode(sentences, convert_to_tensor=True)# 4) 코사인 유사도 계산cos_sim = util.cos_sim(embeddings[0], embeddings[1])print(f"Similarity score: {cos_sim.it..
upskyy/bge-m3-korean 이게 가장 좋다고 하니 테스트 해보잣.아까와 동일한 단어 .. 아까라고 한다면 snunlp import torchfrom sentence_transformers import SentenceTransformer, models, utildef load_sentence_model(model_name="upskyy/bge-m3-korean"): # GPU 사용 가능 시 device = "cuda" if torch.cuda.is_available() else "cpu" print(f"Using device: {device}") # 1) Transformer 모듈 생성: tokenizer_args로 use_fast=False 강제 word_embedd..
nlp 환경에 접속conda activate nlp 라이브러리 설치 # 필수 라이브러리 설치pip install torch transformers sentence-transformers 사용 가능한 모델 ID: snunlp/KR-SBERT-V40K-klueNLI-augSTS 이 모델은 “KLUE-NLI” 데이터에 기반해 파인튜닝된 SBERT로, 문장 유사도나 클러스터링 등에 바로 활용 from sentence_transformers import SentenceTransformer, util# 올바른 모델 IDmodel = SentenceTransformer("snunlp/KR-SBERT-V40K-klueNLI-augSTS")sentences = ["문장 A", "문장 B"]# 임베딩 생성 및 유사도 계..
호환성을 고려한 버전이 3.12 라고 하니가상환경을 만들어 보자 .conda create -n nlp python=3.12 -yconda activate nlp# To activate this environment, use## $ conda activate nlp## To deactivate an active environment, use## $ conda deactivate 패키지 설치# PyTorch (또는 TensorFlow) pip install torch # CPU 전용; GPU 쓰면 cuda 버전 명시 # Transformers 핵심 라이브러리 pip install transformers # 전처리·토크나이저 지원 pip install tokeniz..