일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |
- 아이온큐
- mysql
- java crawler
- request cache
- Docker
- TSLA
- NORI
- Query
- IONQ
- api cache
- KNN
- 테슬라
- ann
- elasticsearch cache
- aggs
- aqqle
- redis
- dbeaver
- Elasticsearch
- vavr
- file download
- java
- Cache
- 양자컴퓨터
- API
- Selenium
- Analyzer
- JPA
- Elastic
- Aggregation
- Today
- Total
목록전체 글 (205)
아빠는 개발자
aqqle 에서 뭘 써야 할지.. from sentence_transformers import SentenceTransformer, util# 1) 모델 로드model = SentenceTransformer('jhgan/ko-sbert-sts')# 2) 비교할 문장 리스트sentences = [ "오늘 날씨가 정말 좋네요.", "날씨가 맑아서 기분이 좋습니다."]# 3) 임베딩 생성 (Tensor 반환)embeddings = model.encode(sentences, convert_to_tensor=True)# 4) 코사인 유사도 계산cos_sim = util.cos_sim(embeddings[0], embeddings[1])print(f"Similarity score: {cos_sim.it..
upskyy/bge-m3-korean 이게 가장 좋다고 하니 테스트 해보잣.아까와 동일한 단어 .. 아까라고 한다면 snunlp import torchfrom sentence_transformers import SentenceTransformer, models, utildef load_sentence_model(model_name="upskyy/bge-m3-korean"): # GPU 사용 가능 시 device = "cuda" if torch.cuda.is_available() else "cpu" print(f"Using device: {device}") # 1) Transformer 모듈 생성: tokenizer_args로 use_fast=False 강제 word_embedd..
nlp 환경에 접속conda activate nlp 라이브러리 설치 # 필수 라이브러리 설치pip install torch transformers sentence-transformers 사용 가능한 모델 ID: snunlp/KR-SBERT-V40K-klueNLI-augSTS 이 모델은 “KLUE-NLI” 데이터에 기반해 파인튜닝된 SBERT로, 문장 유사도나 클러스터링 등에 바로 활용 from sentence_transformers import SentenceTransformer, util# 올바른 모델 IDmodel = SentenceTransformer("snunlp/KR-SBERT-V40K-klueNLI-augSTS")sentences = ["문장 A", "문장 B"]# 임베딩 생성 및 유사도 계..