人工智能

当 AI 开始「剧透」功能创意:初级开发者的反压制生存手册 —— 老码农的 Debug 式开导

前言:哈喽,大家好,今天给大家分享一篇文章!并提供具体代码帮助大家深入理解,彻底掌握!创作不易,如果能帮助到大家或者给大家一些灵感和启发,欢迎收藏+关注哦 💕 目录 当 AI 开始「剧透」功能创意:初级开发者的反压制生存手册 —

物体检测之加载数据集和画框

(一)物体检测 前面咱们讨论的都是图片分类的问题,他注重的是图面中的主体,而对于其他的物体,就不会去关注。那么如果画面中有一只狗和一只猫,我们的模型该如何进行分类呢?其实我们更希望他能够做到的是,能发现图里面有一只狗和一只猫并且能够知道它们的位置,这就是物体检测。 (1)边缘框 在目标检测中,我们通常使用边界框(bounding box)来描述对象的空间位置。 边界框是矩形的,由矩形

AI+低代码双引擎驱动:重构智能业务系统的产品逻辑

低代码与AI融合的架构重构将低代码技术深度融入产品体系,形成"可视化编排+AI增强"的双引擎架构,彻底重构传统业务系统的开发与交付模式。新架构在保留原有AI能力的基础上,通过低代码平台实现业务逻辑的可视化定义、参数配置的图形化操作和AI服务的拖拽式编排。 重构后的产品逻辑全景图┌──────────────────────────

xxl-job惊艳的设计,怎能叫人不爱

通信底层介绍 xxl-job 使用 netty http 的方式进行通信,虽然也支持 Mina,jetty,netty tcp 等方式,但是代码里面固定写死的是 netty http。 通信整体流程 我以调度器通知执行器执行任务为例,绘制的活动图: 活动图 惊艳的设计 看完了整个处理流程代码,设计上可以说独具匠心,将 netty,多线程的知识运用得行云流水。 我现在就将这些设计上出彩

Apache Pulsar——Function 轻量级计算框架

一、Function背景介绍 当我们进行流式处理的时候,很多情况下,我们的需求可能只是下面这些简单的操作:简单的ETL 操作\聚合计算操作等相关服务。 但为了实现这些功能,我们不得不去部署一整套 SPE 服务。部署成功后才发现需要的仅是SPE(流处理引擎)服务中的一小部分功能,部署 SPE 的成本可能比用户开发这个功能本身更困难。由于SPE 本身API 的复杂性,我们需要了解这些算子的使用场景,明

DooTask | 使用 DooTask AI 机器人,解锁任务创建新姿势

文章目录 前言 一、✨ 功能亮点: 二、🔥 使用示例(支持多模型配置): Step 1: 配置你的 AI 服务 Step 2: 在聊天中召唤 AI Step 3: AI 自动生成任务清单 三、 📈 为什么选择 DooTask? 四、释放更多精力,聚焦核心工作&#

通过 Spark thriftserver 操作Hudi表

背景 本篇主要讲解如何配置Spark thriftserver,从而可以使用JDBC方式通过Spark thriftserver操作Hudi表。 博主的环境信息: Spark 3.1.1 Hive 3.1.0 Hadoop 3.1.1 Hudi 0.11.1 环境准备 首先,我们需要编译Hudi。然后找到编译后输出的hudi-spark3.1-bundle_2.12-0.11.1.jar和hu

Flask框架——基于Celery的后台任务

上篇文章我们学习了Flask框架——MongoEngine使用MongoDB数据库,这篇文章我们学习Flask框架——基于Celery的后台任务。 Celery 在Web开发中,我们经常会遇到一些耗时的操作,例如:上传/下载数据、发送邮件/短信,执行各种任务等等。这时我们可以使用分布式异步消息任务队列去执行这些任务。 Celery是一款非常简单、灵活、可靠的分布式异步消息队列工具,可以用于处理大量