main_simple.py 26 KB

123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110111112113114115116117118119120121122123124125126127128129130131132133134135136137138139140141142143144145146147148149150151152153154155156157158159160161162163164165166167168169170171172173174175176177178179180181182183184185186187188189190191192193194195196197198199200201202203204205206207208209210211212213214215216217218219220221222223224225226227228229230231232233234235236237238239240241242243244245246247248249250251252253254255256257258259260261262263264265266267268269270271272273274275276277278279280281282283284285286287288289290291292293294295296297298299300301302303304305306307308309310311312313314315316317318319320321322323324325326327328329330331332333334335336337338339340341342343344345346347348349350351352353354355356357358359360361362363364365366367368369370371372373374375376377378379380381382383384385386387388389390391392393394395396397398399400401402403404405406407408409410411412413414415416417418419420421422423424425426427428429430431432433434435436437438439440441442443444445446447448449450451452453454455456457458459460461462463464465466467468469470471472473474475476477478479480481482483484485486487488489490491492493494495496497498499500501502503504505506507508509510511512513514515516517518519520521522523524525526527528529530531532533534535536537538539540541542543544545546547548549550551552553554555556557558559560561562563564565566567568569570571572573574575576577578579580581582583584585586587588589590591592593594595596597598599600601602603604605606607608609610611612613614615616617618619620621622623624625626627628629630631632633634635636637638639640641642643644645646647648649650651652653654655656657658659660661662663664665666667668669670671672673674675676677678679680681682683684685686687688689690691692693694695696697698699700701702703704705706707708709
  1. # -*- coding: utf-8 -*-
  2. """
  3. RO膜污染监控与CIP预测 - 基于预测数据的最优时机分析
  4. 核心功能:分析RO膜压差预测数据,计算最优CIP清洗时机
  5. CIP时机选择策略:
  6. 1. 最早时机策略:一段或二段任一需要CIP时即触发
  7. 2. 最晚时机策略:等待所有段都需要CIP时触发
  8. 3. 加权平均策略:综合两段污染程度,污染严重段权重更大
  9. 4. 污染严重程度策略:基于k值最大的段决策
  10. 使用方法:
  11. main(strategy=3) # 使用策略3
  12. main(strategy=1, start_date='2025-08-26 00:00:00') # 指定策略和时间
  13. """
  14. import pandas as pd
  15. import numpy as np
  16. import logging
  17. from logging.handlers import RotatingFileHandler
  18. from sklearn.linear_model import LinearRegression
  19. from fouling_model_0922.predict import Predictor
  20. import warnings
  21. from datetime import datetime, timedelta
  22. from logging_system import CIPAnalysisLogger
  23. import json
  24. import requests
  25. import time
  26. import os
  27. warnings.filterwarnings('ignore', category=FutureWarning)
  28. # 日志系统配置
  29. logger = logging.getLogger(__name__)
  30. logger.setLevel(logging.INFO)
  31. # 日志输出格式
  32. formatter = logging.Formatter(
  33. '%(asctime)s - %(threadName)s - %(levelname)s - %(message)s',
  34. datefmt='%Y-%m-%d %H:%M:%S'
  35. )
  36. # 文件日志处理器,单个文件最大5MB,保留3个备份
  37. file_handler = RotatingFileHandler('main_simple.log', maxBytes=5 * 1024 * 1024, backupCount=3, encoding='utf-8')
  38. file_handler.setFormatter(formatter)
  39. # 控制台日志处理器
  40. console_handler = logging.StreamHandler()
  41. console_handler.setFormatter(formatter)
  42. # 添加处理器
  43. logger.addHandler(file_handler)
  44. logger.addHandler(console_handler)
  45. # 加载配置文件
  46. def load_config():
  47. """
  48. 加载配置文件
  49. Returns:
  50. dict: 配置字典,失败时返回None
  51. """
  52. config_path = os.path.join(os.path.dirname(__file__), 'config.json')
  53. try:
  54. with open(config_path, 'r', encoding='utf-8') as f:
  55. config = json.load(f)
  56. return config
  57. except Exception as e:
  58. logger.error(f"配置文件加载失败: {e}")
  59. return None
  60. # 加载配置
  61. config = load_config()
  62. def update_cip_history_in_config(result_df):
  63. """
  64. 保存CIP预测结果到配置文件
  65. 功能:将预测的CIP时机写入config.json的cip_times字段的predicted_time
  66. Args:
  67. result_df: DataFrame,包含机组类型和CIP时机两列
  68. Returns:
  69. bool: 保存成功返回True,失败返回False
  70. 注意:
  71. 此函数已废弃,smart_monitor会自动保存predicted_time
  72. 保留此函数仅为兼容性
  73. """
  74. global config
  75. if config is None:
  76. print("配置文件未加载")
  77. return False
  78. try:
  79. config_path = os.path.join(os.path.dirname(__file__), 'config.json')
  80. with open(config_path, 'r', encoding='utf-8') as f:
  81. current_config = json.load(f)
  82. # 遍历结果,写入配置
  83. updated_units = []
  84. for _, row in result_df.iterrows():
  85. if pd.notna(row["CIP时机"]):
  86. unit_name = row["机组类型"]
  87. cip_time = row["CIP时机"].strftime('%Y-%m-%d %H:%M:%S')
  88. if unit_name in current_config.get('cip_times', {}):
  89. # 新格式:只更新predicted_time
  90. if isinstance(current_config['cip_times'][unit_name], dict):
  91. current_config['cip_times'][unit_name]['predicted_time'] = cip_time
  92. else:
  93. # 兼容旧格式:转换为新格式
  94. current_config['cip_times'][unit_name] = {
  95. 'actual_time': current_config['cip_times'][unit_name],
  96. 'predicted_time': cip_time
  97. }
  98. updated_units.append(f"{unit_name}: {cip_time}")
  99. if updated_units:
  100. with open(config_path, 'w', encoding='utf-8') as f:
  101. json.dump(current_config, f, ensure_ascii=False, indent=2)
  102. config = current_config
  103. return True
  104. else:
  105. return False
  106. except Exception as e:
  107. logger.error(f"保存CIP预测时间失败: {e}")
  108. return False
  109. def validate_data(data, name="数据"):
  110. """
  111. 验证时间序列数据格式
  112. 检查项:
  113. 1. 数据非空
  114. 2. 索引类型为DatetimeIndex
  115. Args:
  116. data: pd.Series或pd.DataFrame
  117. name: 数据名称,用于错误提示
  118. Returns:
  119. bool: 验证通过返回True
  120. Raises:
  121. ValueError: 验证失败时抛出
  122. """
  123. if data is None or data.empty:
  124. raise ValueError(f"{name}为空或无效")
  125. if not isinstance(data.index, pd.DatetimeIndex):
  126. raise ValueError(f"{name}的索引必须是时间格式")
  127. return True
  128. class OptimalCIPPredictor:
  129. """
  130. CIP最优时机预测器
  131. 工作原理:
  132. 1. 使用滑动窗口计算k值(膜污染速率)
  133. 2. 识别k值连续上升趋势
  134. 3. 在满足时间约束前提下,选择k值最大的时间点
  135. 参数说明:
  136. - window_days: 滑动窗口大小(天),用于线性回归计算k值
  137. - min_continuous_rising: 最小连续上升点数,确保趋势稳定
  138. - min_delay_days: 最小延迟天数,避免过早建议CIP
  139. """
  140. def __init__(self, window_days=7, min_continuous_rising=3, min_delay_days=30):
  141. """
  142. 初始化预测器
  143. Args:
  144. window_days: 滑动窗口天数(默认7天)
  145. min_continuous_rising: 最小连续上升点数(默认3点)
  146. min_delay_days: 最小延迟天数(默认30天)
  147. """
  148. self.window_days = window_days
  149. self.window_hours = window_days * 24 # 转换为小时
  150. self.min_continuous_rising = min_continuous_rising
  151. self.min_delay_days = min_delay_days
  152. def calculate_sliding_k_values(self, pressure_series):
  153. """
  154. 计算滑动窗口k值序列
  155. 基于机理模型: ΔP(t) = ΔP₀ + k×t
  156. 通过线性回归计算斜率k,表示膜污染速率
  157. Args:
  158. pressure_series: pd.Series,压差时间序列,索引为时间
  159. Returns:
  160. pd.Series: k值序列,前window_hours个值为NaN
  161. """
  162. # 初始化k值序列,索引与输入数据保持一致
  163. k_values = pd.Series(index=pressure_series.index, dtype=float)
  164. # 滑动窗口遍历,从第window_hours个点开始
  165. for i in range(self.window_hours, len(pressure_series)):
  166. # 取当前窗口内的数据
  167. window_data = pressure_series.iloc[i-self.window_hours:i]
  168. # 数据质量检查:窗口内至少80%的数据有效
  169. if len(window_data) < self.window_hours * 0.8:
  170. continue
  171. # 构造时间点序列 [0, 1, 2, ..., window_hours-1]
  172. time_points = np.arange(len(window_data)).reshape(-1, 1)
  173. try:
  174. # 线性回归拟合:y = a + k*x,取斜率k作为污染速率
  175. model = LinearRegression()
  176. model.fit(time_points, window_data.values)
  177. k = model.coef_[0]
  178. k_values.iloc[i] = k
  179. except:
  180. # 回归失败时跳过该点
  181. continue
  182. return k_values
  183. def find_continuous_rising_periods(self, k_values):
  184. """
  185. 识别k值连续上升的时间段
  186. 遍历k值序列,找出所有连续上升的区间
  187. 只保留持续时间大于等于min_continuous_rising的区间
  188. Args:
  189. k_values: pd.Series,k值序列
  190. Returns:
  191. list: 连续上升时间段列表,格式 [(start_idx, end_idx, duration), ...]
  192. """
  193. rising_periods = []
  194. start_idx = None # 当前上升段的起始索引
  195. # 遍历k值序列,寻找连续上升段
  196. for i in range(1, len(k_values)):
  197. # 跳过缺失值
  198. if pd.isna(k_values.iloc[i]) or pd.isna(k_values.iloc[i-1]):
  199. start_idx = None
  200. continue
  201. # 判断k值是否上升
  202. if k_values.iloc[i] > k_values.iloc[i-1]:
  203. # 开始新的上升段
  204. if start_idx is None:
  205. start_idx = i-1
  206. else:
  207. # k值不再上升,结束当前上升段
  208. if start_idx is not None:
  209. duration = i - start_idx
  210. # 只保留持续时间足够长的上升段
  211. if duration >= self.min_continuous_rising:
  212. rising_periods.append((start_idx, i-1, duration))
  213. start_idx = None
  214. # 处理序列末尾的上升趋势
  215. if start_idx is not None:
  216. duration = len(k_values) - start_idx # 持续时间
  217. if duration >= self.min_continuous_rising: # 持续时间足够长
  218. rising_periods.append((start_idx, len(k_values)-1, duration)) # 添加上升时间段
  219. return rising_periods
  220. def find_optimal_cip_time(self, pressure_series):
  221. """
  222. 最优CIP时机
  223. 核心步骤:
  224. 1. 计算滑动窗口k值(膜污染速率)
  225. 2. 识别k值连续上升的时间段
  226. 3. 应用时间约束(距离起点至少min_delay_days天)
  227. 4. 在有效时间段内选择k值最大的时间点
  228. Args:
  229. pressure_series: pd.Series,压差时间序列
  230. Returns:
  231. tuple: (optimal_time, analysis_result)
  232. - optimal_time: pd.Timestamp,最优CIP时间,失败时返回None
  233. - analysis_result: dict,分析结果详情
  234. """
  235. # 步骤1:计算滑动k值
  236. k_values = self.calculate_sliding_k_values(pressure_series)
  237. valid_k_count = k_values.dropna().shape[0]
  238. # 检查:k值数量是否足够
  239. if valid_k_count < 10:
  240. return None, {"error": "有效k值数量不足"}
  241. # 步骤2:识别连续上升时间段
  242. rising_periods = self.find_continuous_rising_periods(k_values)
  243. if not rising_periods:
  244. return None, {"error": "未发现连续上升趋势"}
  245. # 步骤3:应用时间约束,筛选有效时间段
  246. min_delay_time = pressure_series.index[0] + timedelta(days=self.min_delay_days)
  247. valid_periods = []
  248. for start_idx, end_idx, duration in rising_periods:
  249. period_start_time = pressure_series.index[start_idx]
  250. period_end_time = pressure_series.index[end_idx]
  251. # 检查时间段是否在约束范围内
  252. if period_end_time >= min_delay_time:
  253. if period_start_time < min_delay_time:
  254. # 时间段部分在约束范围内,截取有效部分
  255. delay_idx = pressure_series.index.get_indexer([min_delay_time], method='nearest')[0]
  256. if delay_idx <= end_idx:
  257. valid_periods.append((delay_idx, end_idx, end_idx - delay_idx + 1))
  258. else:
  259. # 时间段完全在约束范围内
  260. valid_periods.append((start_idx, end_idx, duration))
  261. if not valid_periods:
  262. return None, {"error": f"无满足时间约束的上升趋势(需>={self.min_delay_days}天后)"}
  263. # 步骤4:在有效时间段内寻找k值最大的点
  264. best_time = None
  265. best_k = -np.inf
  266. for start_idx, end_idx, duration in valid_periods:
  267. period_k_values = k_values.iloc[start_idx:end_idx+1]
  268. max_k_idx = period_k_values.idxmax() # k值最大点的索引
  269. max_k_value = period_k_values.max() # k值最大值
  270. if max_k_value > best_k:
  271. best_k = max_k_value
  272. best_time = max_k_idx
  273. # 构建分析结果
  274. analysis_result = {
  275. "success": True,
  276. "delay_days": (best_time - pressure_series.index[0]).days,
  277. "best_k": float(best_k)
  278. }
  279. return best_time, analysis_result
  280. def select_optimal_cip_strategy_1(cip_results):
  281. """
  282. 策略1:最早时机策略
  283. 选择逻辑:取一段和二段中较早需要CIP的时机
  284. 适用场景:保守运维,及时维护
  285. """
  286. if not cip_results:
  287. return None, "无有效CIP时机"
  288. earliest_result = min(cip_results, key=lambda x: x['delay_days'])
  289. return earliest_result['time'], f"最早时机策略 - {earliest_result['column']} (第{earliest_result['delay_days']}天)"
  290. def select_optimal_cip_strategy_2(cip_results):
  291. """
  292. 策略2:最晚时机策略
  293. 选择逻辑:取一段和二段中较晚需要CIP的时机
  294. 适用场景:最大化运行时间
  295. """
  296. if not cip_results:
  297. return None, "无有效CIP时机"
  298. latest_result = max(cip_results, key=lambda x: x['delay_days'])
  299. return latest_result['time'], f"最晚时机策略 - {latest_result['column']} (第{latest_result['delay_days']}天)"
  300. def select_optimal_cip_strategy_3(cip_results):
  301. """
  302. 策略3:加权平均策略(推荐)
  303. 选择逻辑:根据k值对各段CIP时机加权,污染严重段权重更大
  304. 适用场景:平衡运行时间和维护需求
  305. """
  306. if not cip_results:
  307. return None, "无有效CIP时机"
  308. if len(cip_results) == 1:
  309. result = cip_results[0]
  310. return result['time'], f"单段加权策略 - {result['column']} (第{result['delay_days']}天)"
  311. # 计算加权平均天数
  312. total_weight = sum(result['k_value'] for result in cip_results)
  313. weighted_days = sum(result['delay_days'] * result['k_value'] for result in cip_results) / total_weight
  314. # 找最接近加权平均天数的时机
  315. target_days = int(round(weighted_days))
  316. closest_result = min(cip_results, key=lambda x: abs(x['delay_days'] - target_days))
  317. return closest_result['time'], f"加权平均策略 - {closest_result['column']} (目标第{target_days}天,实际第{closest_result['delay_days']}天)"
  318. def select_optimal_cip_strategy_4(cip_results):
  319. """
  320. 策略4:污染严重程度策略
  321. 选择逻辑:选择k值最大(污染最严重)的段的CIP时机
  322. 适用场景:基于实际污染状况决策
  323. """
  324. if not cip_results:
  325. return None, "无有效CIP时机"
  326. max_k_result = max(cip_results, key=lambda x: x['k_value'])
  327. return max_k_result['time'], f"污染严重程度策略 - {max_k_result['column']} (k值={max_k_result['k_value']:.6f}, 第{max_k_result['delay_days']}天)"
  328. def select_optimal_cip_time(cip_results, strategy=1):
  329. """
  330. 根据指定策略选择最优CIP时机
  331. Args:
  332. cip_results: list,各段CIP分析结果列表,每个元素包含time、delay_days、k_value等字段
  333. strategy: int,策略编号,1-4分别对应不同策略
  334. Returns:
  335. tuple: (optimal_time, description)
  336. - optimal_time: pd.Timestamp,最优CIP时间
  337. - description: str,策略描述
  338. Raises:
  339. ValueError: 当策略编号无效时抛出
  340. """
  341. strategy_map = {
  342. 1: select_optimal_cip_strategy_1, # 最早时机
  343. 2: select_optimal_cip_strategy_2, # 最晚时机
  344. 3: select_optimal_cip_strategy_3, # 加权平均(推荐)
  345. 4: select_optimal_cip_strategy_4 # 污染严重程度
  346. }
  347. if strategy not in strategy_map:
  348. raise ValueError(f"无效策略编号: {strategy},支持的策略: 1-4")
  349. return strategy_map[strategy](cip_results)
  350. def analyze_ro_unit_cip_timing(strategy=1, start_date=None, unit_filter=None):
  351. """
  352. 分析RO机组的最优CIP时间
  353. 功能:
  354. 1. 获取压差预测数据
  355. 2. 分析各机组各段的CIP时机
  356. 3. 根据策略选择最优CIP时间
  357. Args:
  358. strategy: int,CIP时机选择策略(1-4)
  359. 1: 最早时机策略
  360. 2: 最晚时机策略
  361. 3: 加权平均策略(推荐)
  362. 4: 污染严重程度策略
  363. start_date: str,预测起始时间,格式'YYYY-MM-DD HH:MM:SS',默认使用当前时间
  364. unit_filter: str,指定分析的机组,如'RO1',默认分析所有机组
  365. Returns:
  366. pd.DataFrame: 包含机组类型、CIP时机、策略说明的结果表
  367. """
  368. # 初始化日志记录器
  369. analysis_logger = CIPAnalysisLogger()
  370. try:
  371. # 获取预测数据
  372. try:
  373. all_data = Predictor().predict(start_date=start_date) # 获取预测数据
  374. if all_data.empty:
  375. analysis_logger.logger.error("预测数据为空")
  376. return pd.DataFrame()
  377. except Exception as e:
  378. analysis_logger.logger.error(f"获取预测数据失败: {e}")
  379. return pd.DataFrame()
  380. # 将date列设置为索引
  381. all_data = all_data.set_index('date')
  382. # 获取预测数据的起始时间
  383. prediction_start_date = all_data.index[0].to_pydatetime()
  384. logger.info(f"预测起始: {prediction_start_date.strftime('%Y-%m-%d %H:%M:%S')}")
  385. # 记录输入参数和预测数据
  386. analysis_logger.log_input_parameters(strategy, start_date, prediction_start_date)
  387. analysis_logger.log_prediction_data(all_data)
  388. # 确定要分析的机组
  389. if unit_filter:
  390. unit_ids = [int(unit_filter.replace('RO', ''))]
  391. else:
  392. unit_ids = [1, 2, 3, 4]
  393. # 获取各机组的预测天数
  394. from cip.run_this import main as get_unit_days
  395. unit_days_dict = {}
  396. for unit_id in unit_ids:
  397. unit_days_dict[unit_id] = get_unit_days(unit_id, prediction_start_date)
  398. # 记录机组预测天数
  399. analysis_logger.log_unit_days(unit_days_dict)
  400. # 初始化预测器
  401. predictor = OptimalCIPPredictor(window_days=7, min_continuous_rising=3, min_delay_days=30)
  402. # 存储分析结果
  403. results = []
  404. # 遍历分析各机组
  405. for unit_id in unit_ids:
  406. # 获取该机组的预测天数
  407. predict_days = unit_days_dict[unit_id]
  408. # 记录分析开始
  409. analysis_logger.log_unit_analysis_start(unit_id, predict_days)
  410. # 截取预测天数范围内的数据
  411. end_time = all_data.index[0] + timedelta(days=predict_days)
  412. truncated_data = all_data.loc[all_data.index <= end_time]
  413. # 筛选该机组的压差列
  414. ro_name = f"RO{unit_id}"
  415. pressure_columns = [col for col in truncated_data.columns if ro_name in col and 'DPT' in col and 'pred' in col]
  416. if not pressure_columns:
  417. logger.warning(f"[{ro_name}] 未找到压差列")
  418. continue
  419. # 记录压差数据
  420. analysis_logger.log_unit_pressure_data(unit_id, truncated_data, pressure_columns)
  421. # 收集各段的CIP分析结果
  422. cip_results = []
  423. for column in pressure_columns:
  424. pressure_series = truncated_data[column].dropna()
  425. pressure_series.name = column
  426. # 数据点数检查:至少需要30天数据
  427. if len(pressure_series) < 30 * 24:
  428. continue
  429. try:
  430. # 寻找最优CIP时机
  431. optimal_time, analysis = predictor.find_optimal_cip_time(pressure_series)
  432. # 记录分析结果
  433. analysis_logger.log_cip_analysis_result(unit_id, column, optimal_time, analysis)
  434. if optimal_time:
  435. cip_results.append({
  436. 'column': column,
  437. 'time': optimal_time,
  438. 'delay_days': analysis['delay_days'],
  439. 'k_value': analysis['best_k']
  440. })
  441. except Exception as e:
  442. analysis_logger.log_cip_analysis_result(unit_id, column, None, {"error": str(e)})
  443. # 根据策略选择最优CIP时机
  444. if cip_results:
  445. optimal_time, strategy_desc = select_optimal_cip_time(cip_results, strategy)
  446. results.append({
  447. '机组类型': f"RO{unit_id}",
  448. 'CIP时机': optimal_time,
  449. '策略说明': strategy_desc
  450. })
  451. logger.info(f"[RO{unit_id}] CIP时机 → {optimal_time.strftime('%Y-%m-%d %H:%M:%S')}")
  452. analysis_logger.log_unit_strategy_result(unit_id, optimal_time, strategy_desc)
  453. else:
  454. results.append({
  455. '机组类型': f"RO{unit_id}",
  456. 'CIP时机': None,
  457. '策略说明': "无有效CIP时机"
  458. })
  459. logger.warning(f"[RO{unit_id}] 未找到有效CIP时机")
  460. analysis_logger.log_unit_strategy_result(unit_id, None, "无有效CIP时机")
  461. # 生成结果DataFrame
  462. result_df = pd.DataFrame(results)
  463. # 记录最终结果
  464. analysis_logger.log_final_results(result_df)
  465. # 生成分析图表
  466. analysis_logger.create_analysis_plots(all_data, unit_days_dict)
  467. return result_df
  468. except Exception as e:
  469. analysis_logger.logger.error(f"分析过程中发生错误: {e}")
  470. raise
  471. finally:
  472. # 确保日志记录器正确关闭
  473. analysis_logger.close()
  474. def main(strategy=3, start_date=None, unit_filter=None):
  475. """
  476. 主执行函数
  477. 功能:执行RO机组CIP时机分析并发送结果到回调接口
  478. Args:
  479. strategy: int,CIP时机选择策略(1-4),默认3(加权平均策略)
  480. 1: 最早时机策略
  481. 2: 最晚时机策略
  482. 3: 加权平均策略
  483. 4: 污染严重程度策略
  484. start_date: str,预测起始时间,格式'YYYY-MM-DD HH:MM:SS',默认None(使用当前时间)
  485. unit_filter: str,指定预测的机组,如'RO1',默认None(预测所有机组)
  486. Returns:
  487. pd.DataFrame: 分析结果
  488. 示例:
  489. result_df = main() # 使用默认参数
  490. result_df = main(start_date='2025-07-01 00:00:00') # 指定时间
  491. result_df = main(strategy=1, unit_filter='RO1') # 指定策略和机组
  492. """
  493. # 执行分析
  494. result_df = analyze_ro_unit_cip_timing(strategy=strategy, start_date=start_date, unit_filter=unit_filter)
  495. # 发送回调
  496. if config and not result_df.empty:
  497. callback_success = send_decision_to_callback(result_df)
  498. if not callback_success:
  499. logger.error("决策结果发送失败")
  500. return result_df
  501. def send_decision_to_callback(decision_data):
  502. """
  503. 将CIP决策结果发送到回调接口
  504. 功能:将分析结果按照API格式封装,通过HTTP POST发送到回调地址
  505. Args:
  506. decision_data: pd.DataFrame,决策数据,包含机组类型和CIP时机
  507. Returns:
  508. bool: 发送成功返回True,失败返回False
  509. """
  510. if config is None:
  511. logger.error("配置文件未加载")
  512. return False
  513. try:
  514. # 构建回调URL
  515. callback_url = config['api']['base_url'] + config['api']['callback_endpoint']
  516. # 设置请求头
  517. headers = {
  518. "Content-Type": "application/json",
  519. "JWT-TOKEN": config['api']['jwt_token']
  520. }
  521. # 获取项目ID
  522. project_id = config['scada']['project_id']
  523. # 构造回调数据
  524. callback_list = []
  525. if isinstance(decision_data, pd.DataFrame):
  526. for _, row in decision_data.iterrows():
  527. if pd.notna(row["CIP时机"]):
  528. callback_list.append({
  529. "type": row["机组类型"],
  530. "project_id": project_id,
  531. "ctime": row["CIP时机"].strftime("%Y-%m-%d %H:%M:%S")
  532. })
  533. else:
  534. callback_list = [decision_data]
  535. # 封装为API要求的格式
  536. payload = {
  537. "list": callback_list
  538. }
  539. # 发送HTTP请求(带重试机制)
  540. max_retries = 3
  541. retry_interval = 10
  542. log_type = callback_list[0]["type"] if callback_list else "UNKNOWN"
  543. for attempt in range(1, max_retries + 1):
  544. try:
  545. response = requests.post(callback_url, headers=headers, json=payload, timeout=15)
  546. response.raise_for_status()
  547. logger.info(f"[{log_type}] 回调成功")
  548. return True
  549. except requests.exceptions.RequestException as e:
  550. if attempt < max_retries:
  551. time.sleep(retry_interval)
  552. else:
  553. logger.error(f"[{log_type}] 回调失败(重试{max_retries}次): {e}")
  554. return False
  555. except Exception as e:
  556. logger.error(f"构建回调数据时出错: {e}")
  557. return False
  558. if __name__ == '__main__':
  559. # 示例调用
  560. # main() # 使用当前时间
  561. main(start_date='2025-08-26 00:00:00', unit_filter='RO1') # 使用历史时间