🟢 2026 届 / 求职中

AI 全栈
开发者

擅长在有限算力下落地大模型应用。
独立完成微调、RAG 本地系统与 Agent 开发,兼顾业务价值与工程落地。

👉 发起连接
LLM 微调

6GB 显存极限微调

RTX 2060 实战 Qwen2.5-7B。
结合 4-bit 量化与 LoRA 技术,降低显存占用 64%, 独立跑通从数据构建到模型权重的全流程。

RAG / 知识库

本地 AI 知识库

基于 FastAPI + FAISS 构建。
文档解析、混合检索、引用溯源。
无外部 API 依赖。

Agent 架构

多智能体协作体系

基于 LangGraph 构建。
设计 Router-Specialist 架构,实现动态任务路由,支持 MCP 工具调用,解决复杂长程任务。

垂直应用

体检报告 AI 解读

解决用户“看不懂报告”痛点。
OCR 识别 + LLM 术语解析。
Vue3 + Node.js 全栈落地,面向实际业务场景。

PythonFastAPINode.js Vue3DockerPyTorch PyTorchLangChainUnsloth MySQLNginxFAISS PythonFastAPINode.js Vue3DockerPyTorch LangChainUnslothMySQL NginxFAISS

有兴趣聊聊?

随时欢迎技术交流或面试。

✉️ 发邮件 🔗 GitHub
EST. 2024 • © Luo Maoyin • Powered by 6GB VRAM