Shawn's Blog
蒸汽兔
金振潇 (Shawn Jim)
- Shenzheng China
- jinzhenxiao@apache.org
- https://shawnjim.com
- https://github.com/ShawnJim
- +86 155xxxx1057
自我介绍
- 拥有5年后端编程经验,熟悉Java,掌握Python、Shell等编程语言。
- 具有独立跟进和推动项目进度经验,把控研发测试交付进展。
- 熟悉Spring Cloud技术体系,深入了解Nacos、Gateway、Ribbon等组件,熟练进行服务划分、旧服务改造和服务治理。
- 熟悉Spring、MyBatis、Spring MVC和Spring Boot等核心框架,熟悉相关框架的核心源码。
- 掌握Java核心知识,包括JVM、并发编程、集合、SPI等,具备良好的编码能力,能熟练应用设计模式。
- 掌握Docker、Podman等容器技术,了解Cgroup、Containerd等底层技术,具备服务容器化实践经验。
- 熟悉大数据相关组件,如Impala、Kudu、Hive、StreamSets等,具备线上异常问题排查和调优经验。
- 熟悉MySQL、Redis、Memcached 等数据库 & 缓存组件,理解事务、锁、索引等原理,熟悉SQL调优和缓存相关的数据结构。
- 熟练使用AI工具辅助编程(如ChatGPT、Gemini、Copilot). 拥有LLM工程化经验,基于LangChain实现了使用自然语言对Superset进行图表生成的项目。
- 深度参与开源社区建设,成为Apache ShenYu Committer和Apache DolphinScheduler Contributor。
- 对新技术抱有热情,能够流畅阅读英文文档。
工作经历
上海生生物流有限公司 后端开发|组长 2021.08-2023.08
- 负责数据中台系统后端服务的构建与维护。
- 维护业务流数据清洗管道:同步各业务数据库至Kudu/Hive,实现数据流的清洗和聚合,生成Ads层业务表供分析使用。并维护监控业务指标以进行状态监控实施告警。
- 对中间件例如Xxl-job和DolphinScheduler等进行维护和业务定制化开发。
- 负责容器基础镜像的维护和配置环境更新。
- 承担新员工培训和知识库维护职责,确保技术知识的传承和团队技能的提升。
上海雷默广告有限公司 全栈工程师 2019.07-2021.07
- 开发爬虫和自动化运营脚本,以提高地铁广告业务的效率和精度。
- 设计和实现数据 ETL 流程,将数据成功入库,并提供可靠的报表分析支持。
- 研发中标商业项目的后台系统,以满足业务需求并提高工作效率。
项目经历
生生物流 - 数据中台 后端工程师 | 组长 2019.08-至今
内容: 该项目旨在开发和维护一个生物物流数据中台系统,以支持企业内部的数据集成和分析需求。 服务划分:网关服务(Gateway),鉴权服务(Oauth2), 访问控制网关-内对外(Access-Control-Gateway), 数据交换服务(Data-Exchange), 内部数据服务(Internal-Data-Service)
主要功能:
- 提供数据接入和输出端点,实现与企业内部OWTB等业务系统的数据集成和中转服务。
- 生成各业务维度的分析报表,支持BI系统的功能,以便进行数据分析和决策支持。
项目目标: 通过构建高效的数据中台系统,提升企业内部数据处理和分析能力,支持业务的快速发展和决策制定。
技术:
- 使用
Nginx
作为网关入口,通过Gateway
集群分发流量至各服务提供者。 - 集成
Alibaba Sentinel
实现服务限流、降级和熔断,保障高并发下的服务可用性。 - 集成
Spring Cloud OAuth2
管理服务资源,统一鉴权和授权。 - 使用
Nacos
作为服务注册和配置中心,实现服务发现和配置管理。 - 采用
SkyWalking
收集链路追踪日志,结合Logstash
和Kafka
实现异常告警和性能分析。 - 使用
Prometheus
和Grafana
收集和监控服务指标,实现可视化告警。 - 利用
Redis
缓存Token和业务数据,项目集成Redisson
提供分布式锁。 - 使用
Kafka
维护业务解耦,通过配置策略保证消息一致性。 - 通过
DolphinScheduler
实现数据系统的工作流调度,支持亿次级别的在线生产调度。 - 结合
Kudu
、Hive + Impala
构建分布式存储和离线数据仓库,将数据同步至MySQL
支持数据分析。 - 结合
Jenkins
、Docker Swarm
和Portainer
实现服务容器化和DevOps流水线,支持环境构建、滚动更新和故障恢复。
业绩:
- 从0到1负责该系统的项目搭建及后续迭代方案的推进.
- 通过采用集群化服务,相较于旧业务系统(基于PHP实现),2C4G双节点的内部数据服务实例使业务系统访问接口的吞吐量提升了近200%。同时,经过数据系统优化,大部分数据报表接口响应时间从分钟级别优化到了秒级别。
- 实现接口吞吐能力近 600 TPS,每小时接收并处理来自温度计供应商鼎为的近10万条温度数据,并将其存储入数据仓库。对在途过程中的数据进行实时监控和分析,为冷链业务提供可视化监控和告警支持。
- 通过日志统一收集、异常告警、服务异常回滚、服务自动恢复等方案建立了系统稳定性保障机制。
个人项目 - 自然语言生成Superset图表 开发 2024.01-2024.02
这是个人项目,旨在通过开发实践深入学习LangChain相关知识。
主要功能: 实现使用自然语言自动生成Superset图表的功能,提升数据可视化的效率和便捷性。 已经在成功率95%以上正常通过自然语言生成superset图表,并提供few shot样本入口可后续继续微调提升模型响应的正确率。
技术栈: Python 3.11作为开发语言。 利用LangChain库处理自然语言理解和生成任务。 采用Prompt Engineering技术优化模型的响应效果。
上海雷默 - 新闻自动化脚本平台 后端开发 2020.03-2020.04
使用技术:WxPython + XML
项目描述: 该项目是一个自动化脚本,旨在实现对微博、小红书、抖音等社交平台的引流和养号操作。
项目职责:
- 进行需求分析,确保脚本满足平台引流和养号的需求。
- 编写自动化脚本,实现对社交平台的自动化操作。
- 设计并实现用户界面,提供友好的交互体验。