用于处理包含时间区间字段和字典字段的Excel表格,计算字典中键位于指定时间区间内且值为正数的平均值。
Skills(SKILL.md)は、AIエージェント(Claude Code、Cursor、Codexなど)に特定の能力を追加するための設定ファイルです。
詳しく見る →用于处理包含时间区间字段和字典字段的Excel表格,计算字典中键位于指定时间区间内且值为正数的平均值。
使用 GLM 库实现 Vector3TransformNormal 和 Vector3TransformCoord 函数,模拟 DirectXMath 的行为,并使用 const T& 模板参数以支持多种向量类型。
针对金融K线OHLC数据进行降维分析,包括数据预处理(变化率计算、标准化)、标准PCA降维以及基于随机化SVD的伪PCA降维的Python实现步骤。
用于读取CSV文件数据,将大量数据点的横坐标映射到指定线性范围(如0-60)进行绘图,并自动标记波峰位置。
在对具有多层索引的Pandas DataFrame进行分组计算时,确保返回的结果保留原始的完整索引结构,而不是仅保留分组键。
根据DataFrame中的日期字段创建季节字段,将月份映射为春夏秋冬。
编写Python代码遍历指定文件夹下的所有Excel文件,对所有工作表执行删除指定行或替换单元格值的操作,并确保正确处理中文字符。
在R中实现对数据框按主分组(如年龄)筛选后,对子分组(如学历)之间的数值变量(如PCA)进行独立样本t检验,并输出统计结果。
根据样本表型数据,计算每个SNP位点上表现最好的纯合基因型,忽略杂合基因型和缺失数据,并输出结果文件。
基于历史数据利用统计分析方法预测下一组数字,严格遵守前5位(1-35)和后2位(1-12)的范围限制,输出简洁的预测结果。
使用Python的openpyxl库读取两个Excel文件,将数据合并到一个新文件中,并确保去除重复行。
讀取CSV文件,僅使用csv庫且不使用SequenceMatcher,計算第一列目標基因型與後續每一列基因型的相似度。
对数据按指定列分组后进行OLS回归,提取各变量的系数、t值和p值,并将结果汇总保存为CSV文件。
用于将包含自定义时间列(如'bob')的Excel金融数据读入Backtrader。该技能包含处理时间格式转换、映射OHLCV列,以及通过Pandas倒序解决K线图时间轴反向问题的完整流程。
提供使用R^2指标评估线性回归、支持向量回归(SVR)和随机森林模型的代码,并演示如何使用网格搜索和交叉验证进行参数调优。
使用Python根据基准文件的第一列顺序,对多个Excel文件进行行重排序,保持文件内容不变且输出结构一致。
针对数学除法或方程问题,使用竖式格式进行计算,并提供详细的步骤分析和说明。
针对股票日度面板数据,按日期分组后,根据各指标列的30%和70%分位数筛选出底部和头部的股票代码,并横向合并为DataFrame。
针对具有Datetime索引的时间序列DataFrame,计算指定日期在历史上同月同日数据中的相对分位值(基于最大最小值计算)。
封装一个Python类EntityExtractor,用于从字符串中提取指标、业务线、车型、地区等实体。该类使用正则表达式匹配括号内容,并根据预定义的实体库进行过滤。
用于从Excel文件读取问题,调用LLM接口获取答案,将答案格式化为JSON字符串后写回Excel指定列的自动化脚本任务。
使用 Pandas 和 SQLAlchemy 将 DataFrame 同步到 MySQL,处理 Merge 后缀,并应用复杂的字段比较逻辑(JSON解析、数值归一化、条件排除、字符串排序)以实现精确的 Upsert。
Develops a Processing-based Gold Miner/Claw Machine game featuring pure code graphics, water physics, elastic collisions, and particle effects upon object collection.
使用OpenCV和NumPy处理具有透明背景的PNG图像。功能包括:将图像画布向外扩展200像素,在非透明内容外围添加100像素宽的白色填充,并在白色填充外围添加5像素宽的平滑黑色边框。黑色边框的平滑处理需使用距离变换(Distance Transform)和高斯模糊(Gaussian Blur)技术。
编写用于加载词汇表、使用Jieba分词、构建TextDataset类以及执行LSTM模型预测的Python代码。
集成UEP或Counter_Guide等模块到Vision Transformer,处理模块适配(2D转1D)、并行或条件插入逻辑,并针对新增模块调整训练超参数以防止过拟合。
用于在Vision Transformer模型中实现特征维度转换(序列到空间、空间到序列)时,根据配置动态处理CLS Token(分类标记)的技能。确保模型在启用或禁用CLS Token时均能正确运行。
对业务查询进行深度结构化分析,支持依存关系括号表示法和广义表(LISP风格)语法树两种输出模式,精准提取时间、实体、指标及修饰词。
使用openpyxl库读取Excel文件,保留前N行(表头)不动,从第N+1行开始按指定列进行降序排序,并将结果覆写回原文件。
当用户需要使用Selenium捕获网页加载时的网络请求(类似Chrome DevTools),并从性能日志中提取特定资源(如图片、视频)的URL或保存日志数据时使用。
指导如何在CEUTrackActor类的compute_losses方法中集成基于SVD的正交高秩正规化损失。该技能包括提取注意力矩阵、计算奇异值、构建正则化项并将其加入总损失函数的步骤。
实现一个使用位置编码将像素坐标映射到像素值的PyTorch MLP网络,专门用于拟合灰度图像。支持任意分辨率输出、模型保存加载及设备管理。
用于读取、预处理股票5分钟K线CSV数据,并使用tslearn库的TimeSeriesKMeans进行聚类分析的技能。包含数据清洗(长度过滤、NaN过滤)、百分比变化计算、模型训练、保存及代表性样本提取。
用于计算给定数据集的平均数、标准差以及两组数据间的P值。当用户要求“无需过程”或“只需结果”时,仅输出最终数值。
用于将Pandas DataFrame同步到MySQL数据库的技能,包含针对JSON字段、数值类型(int/float)、字符串顺序(如effect_desc)的归一化比较逻辑,以及基于type字段的条件排除规则。
用于在Pandas DataFrame执行合并操作后,清理由merge产生的后缀列(_x, _y)和指示列,使其符合数据库表结构以便进行to_sql插入操作。
从Excel读取中文文本,支持基于句法树结构(如深度、词性)或语义向量(如TF-IDF、SentenceTransformer)的特征提取,执行聚类分析(如K-Means、DBSCAN),并将结果导出回Excel。
使用Python和pandas读取Excel文件,对比“依存关系”和“识别的依存关系”列,在剔除特定符号(如?)后计算正确率和错误率,并将不匹配的记录保存到新的Excel文件中。
从OCR识别后的医疗单据文本中提取日期、医生姓名、患者姓名、诊断和总消费金额,具备文本矫正和关键字识别能力,并以JSON格式输出。
使用Python Tkinter Treeview组件读取Excel文件,实现点击列头排序、添加动态行序号、双击单元格弹窗显示内容以及自定义列宽的功能。
Advanced Python visualization expert supporting Pandas DataFrames and raw data. Handles dynamic single/dual-axis plotting, Chinese font configuration, Tensor conversion, and safe file saving without display.
Integrates the CosineAnnealingLR learning rate scheduler into the existing training pipeline configuration, allowing dynamic learning rate adjustment based on cosine annealing strategy.
实现用于Vision Transformer的UEP模块,包含特定的卷积层顺序(低维投影、并行卷积、中间处理、高维投影)、残差连接和维度变换,并将其与ViT编码器块进行并行处理集成。
修改多模态视觉Transformer模型,构建双分支架构分别处理RGB和Event数据(分别拼接模板与搜索区域),并输出独立特征以支持双Head处理。
使用Hugging Face Transformers和sacrebleu库,对预训练的机器翻译模型进行评估。支持从制表符分隔的CSV文件读取源文本和参考翻译,计算BLEU分数,并提供Seq2SeqTrainer的compute_metrics函数实现。
读取股票5分钟K线CSV文件,按日期分组,计算基于昨日收盘价的百分比变化,过滤无效数据(长度不一致、NaN、Inf),进行Z-score归一化,并使用TimeSeriesKMeans(DTW/SoftDTW度量)进行聚类。
Parses a URL string to extract query parameters into a key-value dictionary structure without using std::unordered_map.
Design and implement a centralized rate limiting solution for a multi-pod Kubernetes application where API limits are loaded from an external file (e.g., Excel) and synchronized via Redis.
Edits and rewrites sci-fi or fantasy text (novels or game lore) into an epic, high-fantasy style, enhancing vocabulary and tone while strictly preserving original facts and plot points.
Writes expository essays including an outline, introduction, body paragraphs, and conclusion. Body paragraphs must strictly follow the structure: topic sentence, elaboration, examples, and concluding sentence.