
MLOPS 및 ETL을 위한 Apache Airflow - 설명, 장점 및 예시
파이썬을 사용한 ETS/MLOPS에 적합한 프레임워크
Apache Airflow은 프로그래밍적으로 워크플로우를 작성, 예약 및 모니터링할 수 있는 오픈소스 플랫폼으로, 완전히 파이썬 코드로 작성되어 전통적인, 수동적, 또는 UI 기반 워크플로우 도구보다 유연하고 강력한 대안을 제공합니다.
파이썬을 사용한 ETS/MLOPS에 적합한 프레임워크
Apache Airflow은 프로그래밍적으로 워크플로우를 작성, 예약 및 모니터링할 수 있는 오픈소스 플랫폼으로, 완전히 파이썬 코드로 작성되어 전통적인, 수동적, 또는 UI 기반 워크플로우 도구보다 유연하고 강력한 대안을 제공합니다.
RAG을 구현 중이시다면? 여기 Go 코드 예제가 있습니다 - 2...
표준 Ollama에는 직접적인 재정렬 API가 없기 때문에, 쿼리-문서 쌍의 임베딩을 생성하고 이를 점수화하여 Qwen3 재정렬기 사용으로 재정렬하기(GO)를 구현해야 합니다.
qwen3 8b, 14b 및 30b, devstral 24b, mistral small 24b
이 테스트에서는 Ollama에 호스팅된 다양한 LLM이 Hugo 페이지를 영어에서 독일어로 번역하는 방법을 비교하고 있습니다. https://www.glukhov.org/ko/post/2025/06/translation-quality-comparison-llms-on-ollama/ "comparison how different LLMs hosted on Ollama translate Hugo page from English to German"
.
테스트한 세 페이지는 서로 다른 주제를 다루고 있으며, 마크다운 형식으로 구성되어 있습니다. 헤더, 목록, 표, 링크 등이 포함되어 있습니다.
RAG을 구현 중이시다면, 여기 Golang에서 사용할 수 있는 코드 스니펫 몇 가지가 있습니다.
이 작은
Reranking Go 코드 예제는 Ollama를 호출하여 쿼리와 각 후보 문서에 대한 임베딩을 생성
그런 다음 코사인 유사도에 따라 내림차순으로 정렬합니다.
가격 현실 검토 - RTX 5080 및 RTX 5090
3개월 전만 해도 RTX 5090을 가게에서 보는 것은 불가능했지만, 지금은 이미 판매되고 있으며, 가격은 MRSP보다 약간 높은 수준입니다.
가장 저렴한 호주에서의 RTX 5080 및 RTX 5090 가격을 비교해 보고 어떻게 되는지 살펴보겠습니다.
웹 검색 엔진을 자체 호스팅하나요? 간단합니다!
YaCy는 분산형, 피어투피어(P2P) 검색 엔진로, 중앙 집중식 서버 없이 운영되며, 사용자가 지역 또는 글로벌 인덱스를 생성하고 분산된 피어를 쿼리하여 검색을 수행할 수 있도록 설계되었습니다.
더 많은 RAM, 더 적은 전력 소비, 그러나 여전히 비싸다.
최고의 자동화 시스템으로 어떤 멋진 작업도 수행할 수 있습니다.
Ollama에 새로운 훌륭한 LLM이 출시되었습니다.
Qwen3 Embedding 및 Reranker 모델은 Qwen 가족의 최신 출시물로, 고급 텍스트 임베딩, 검색 및 재정렬 작업에 특화되어 있습니다.
모든 페이지 관련 콘텐츠를 하나의 폴더에 보관하는 중...
조금 오랜 시간 동안 저는 페이지의 썸네일 이미지를 정적 디렉토리에 넣는 이 번거로움에 시달려 왔습니다. 이는 Mainroad, Rodster와 유사한 Hugo 테마를 위한 것입니다.
LLM을 위해 두 번째 GPU를 설치하는 것을 고려 중이십니까?
PCIe 랜의 수가 LLM 성능에 미치는 영향? 작업에 따라 다릅니다. 훈련 및 다중 GPU 추론의 경우 성능 저하가 상당합니다.
AWS S3에 Gitea와 Hugo를 설정한 후...
다음 단계는 CI/CD를 구현하고, Gitea Actions for Hugo website, to push website to AWS S3를 설정하여 master 브랜치가 업데이트될 때 자동으로 웹사이트를 AWS S3에 푸시하는 것입니다.
HTML에서 텍스트를 추출하는 LLM...
Ollama 모델 라이브러리에는 HTML 콘텐츠를 Markdown으로 변환할 수 있는 모델이 있습니다. 이는 콘텐츠 변환 작업에 유용합니다.
HTML을 Markdown으로 변환하는 LLM Ollama
커서 AI 대 GitHub Copilot 대 Cline AI 대...
여기 몇 가지 AI 지원 코딩 도구와 AI 코딩 어시스턴트 및 그들의 장점을 나열할 것입니다.
인텔 CPU의 효율성 코어 vs 성능 코어에서의 Ollama
제가 테스트하고 싶은 이론은, 인텔 CPU에서 모든 코어를 사용하면 LLM의 속도가 빨라질까?입니다.
새로운 gemma3 27비트 모델(gemma3:27b, ollama에서 17GB)이 제 GPU의 16GB VRAM에 맞지 않아, 일부는 CPU에서 실행되고 있다는 점이 제게 괴롭습니다.
유용한 MinIO 명령어
MinIO는 두 가지 표준 UI를 제공합니다: (1) MinIO Console - 이는 웹 UI이며,
(2) MinIO Command - 이는 명령줄 인터페이스입니다 util mc
.