32 lines
5.8 KiB
JSON
32 lines
5.8 KiB
JSON
{
|
||
"id": "conv_20251027_183327_949",
|
||
"title": "这只是一个整活文案,但我想知道真能达到要求得是什么水平的人\nLLM算法男跟我date请准备以下材料\n...",
|
||
"created_at": "2025-10-27T18:33:27.950110",
|
||
"updated_at": "2025-10-27T19:49:15.228516",
|
||
"messages": [
|
||
{
|
||
"role": "user",
|
||
"content": "这只是一个整活文案,但我想知道真能达到要求得是什么水平的人\nLLM算法男跟我date请准备以下材料\n1. 技术履历:3年+工业级大模型核心开发经验(需含千亿参数预训练/多模态对齐落地);清北/斯坦福等顶尖院校AI相关专业优先;GitHub 2个+开源项目(含自定义PyTorch算子/LLM量化代码),累计Star≥10k,且PR合并至VLLM/Megatron-LM;能从注意力头、位置编码、并行策略拆解Transformer-XL与GPT-4o差异,附A100/H100集群预训练至Perplexity≤2.8的日志截图。\n2. 技术证明:10分钟内综述稀疏注意力→MoE→动态路由演进,对比PyTorch/TensorFlow/JAX算子性能损耗;明确SFT/RM/RLHF对模型幻觉率的影响边界;背诵20+冷门多模态模型(如BioViL/SceneScape)及核心创新;四窗口(PyCharm+W&B+Hugging Face+NVIDIA SMI)同开不崩,30秒内定位显存溢出原因;需举例说明vLLM优化吞吐量或ConvNeXt改进多模态精度的调试思路。\n3. 极客生活报告:日读3+篇近3个月顶会论文(附500字技术拆解,含实验缺陷分析);季均4次+AI沙龙主讲/竞赛Top 5%;50件+自定义CUDA算子/训练checkpoint;完成《LLM训练工程化》等进阶实验(如混合并行策略实现);梳理扩散/自回归/GAN在生成质量上的优劣。\n4. Personal Statement:①结合长文本窗口扩展方案(如RoPE外推),说明技术深耕理由与突破能力;②引用3篇近1年顶会论文,论述多模态数据异质性痛点与“注意力+CNN”融合价值。\n5. 作品集:①核心成果(4-bit量化训练降60%显存/5k+Star多模态生成项目);②顶刊/权威博客技术评论(含算子latency对比数据);③MoE路由优化自述(附CUDA代码片段与GPU调度思路)。\n6. 极客病发证明:深夜机房调试截图(含PyTorch梯度值+GPU利用率),配文需含技术细节(如“LayerNorm gamma值调整后Perplexity下降”)。\n7. 技术附录:1500字短文(二选一),含具身智能、算子融合、上下文窗口扩展、跨模态权重分配四大板块,每板块引2篇近2年顶会论文,简述FlashAttention-2等术语原理。",
|
||
"timestamp": "2025-10-27T18:34:06.800325"
|
||
},
|
||
{
|
||
"role": "assistant",
|
||
"content": "这文案不是“整活”,是把整个 LLM 工业界的顶尖人才画像用放大镜拆成了 7 份考卷。 \n能 100 % 交卷的人,全球大概不超过三位数,画像如下:\n\n1. 学历与平台 \n - PhD 阶段就扎进 100B+ 参数预训练,导师是 LLM 方向教科书级名字(如 Percy Liang、Fei-Fei Li、Tatsu Hashimoto)。 \n - 博士毕业直接进 OpenAI / Anthropic / Google DeepMind 的核心预训练组,不是“参与”而是“主导过 100B+ 模型的整个 pre-training 生命周期”。 \n\n2. 代码与影响力 \n - GitHub 账号自带“流量”:star 过 10 k 的项目≥2 个,且是 vLLM、Megatron-LM、HuggingFace transformers 的 top-10 contributor,PR 被合并≥50 次,代码行数被全球 GPU 集群每天跑。 \n - 自己写过 CUDA kernel 被 NVIDIA 官方 blog 引用,或者 CUTLASS/cuDNN 里能看到他的 commit。 \n\n3. 论文与演讲 \n - 近三年以一作身份在 ICML / NeurIPS / ICLR / ACL / EMNLP 发过至少 3 篇“硬通货”:稀疏注意力、MoE 动态路由、长上下文扩展、多模态对齐占满。 \n - 被邀请在 Stanford MLSys、NVIDIA GTC、PyTorch Conference 做 30 min 以上 keynote,讲完台下坐着的人排队加微信。 \n\n4. 工程与调试 \n - 能在 30 秒内把 A100 80 GB 显存溢出定位到“第 7 层 TP 通信里 pad 到 128 的 all-gather 多发了 1.2 GB”,顺手写 20 行 cudaMemGetInfo 脚本把峰值显存压回 79 GB。 \n - 给 176 B 模型做 4-bit 量化,Perplexity 只涨 0.02,训练时间从 21 天降到 7 天,省下的 140 万美元预算够公司再招 5 个算法。 \n\n5. 极客生活 \n - 凌晨 3 点把 LayerNorm gamma 从 1e-5 调到 1e-6,Perplexity 从 2.81 降到 2.79,顺手截图发推特,第二天早上 2 k 点赞。 \n - 家里第二台 8×A100 工作站当暖气,冬天开机训练 3 B 模型,室温 26 ℃,电费每月 1 万 5,他当“取暖费”报销。 \n\n6. 综合门槛 \n - 技术履历:≥3 年 100B+ 参数 pre-training 主导经验。 \n - 论文:顶会一作≥3 篇,总引用≥2 k。 \n - 开源:star≥10 k 项目≥2 个,核心合并 PR≥50 次。 \n - 工程:独立设计过 3D 并行 + Zero + 4-bit 量化,把 176 B 模型塞进 64 卡 A100 跑通。 \n - 影响力:受邀国际会议 keynote,行业薪资 package ≥ 年薪 120 万美元 + 股票。 \n\n换句话说,这文案的真身是: \n“请在硅谷或中关村随便挑一家估值 50 亿美元以上的 GenAI 独角兽,把他们的 Chief Scientist 简历复印一份,再配一张凌晨机房的 GPU 利用率截图。” \n\n能达到“报名门槛”的人,大概率不会 date,他/她正在忙着让 GPT-5 的 Perplexity 再降 0.1。",
|
||
"timestamp": "2025-10-27T18:34:31.316349"
|
||
}
|
||
],
|
||
"todo_list": null,
|
||
"metadata": {
|
||
"project_path": "/opt/agent/agents/agents/users/jojo/project",
|
||
"project_relative_path": "users/jojo/project",
|
||
"thinking_mode": true,
|
||
"total_messages": 2,
|
||
"total_tools": 0,
|
||
"status": "active"
|
||
},
|
||
"token_statistics": {
|
||
"total_input_tokens": 8421,
|
||
"total_output_tokens": 1133,
|
||
"updated_at": "2025-10-27T19:49:15.228684"
|
||
}
|
||
} |