查询到最新的12条

Cursor——ChatGPT的替代品【笔记】

Cursor——ChatGPT的替代品【笔记】前言推荐Cursor——ChatGPT的替代品下载登录使用高级另外最后 前言 2023-3-31 22:00:44 以下内容源自《笔记》 仅供学习交流使用 推荐 什么? 你还没用过 Cursor? 智能 AI 代码生成工具 Cursor 安装和使用介绍 Cursor AI IDE 开发者工具 【黑科技】任何人都可以白嫖最强AI!!! Cursor——Ch 继续阅读

社会工程学学习笔记

学习笔记(2019.11.9) 社会工程学概述 社会工程学,又简称为社工。它的大概意思就是欺骗或诈骗他人或引诱他人去为自己进行特定的行动,以达到搜集信息、欺诈、访问计算机系统的目的,而且在很多时候攻击者与受害者并没有面对面的接触。 社会工程学对一个攻击者而言的重要性不可小觑,同时作为安全人员,也要对社会工程学进行研究,这样才可以识破黑客的伎俩,更好的做好自己的工作& 继续阅读

吴恩达ChatGPT《Building Systems with the ChatGPT API》笔记

1. 课程介绍 使用ChatGPT搭建端到端的LLM系统 本课程将演示使用ChatGPT API搭建一个端到端的客户服务辅助系统,其将多个调用链接到语言模型,根据前一个调用的输出来决定使用不同的指令,有时也可以从外部来源查找信息。 2. LLM、ChatGTP API和Token 2.1 LLM是如何工作的 文本生成过程:给定上文,模型生成下文。 如何得到上述的LLM?主要还是使用监督学习。下 继续阅读

(第一集)ChatGPT prompt教程 - 让ChatGPT更好用,成为所有人的工作利器

        未来所有人都会使用ChatGPT来提高自己的工作效率,为了让您更好的工作,小宋将为您整理一整套chatgpt使用教程。只需按照本系列教程学习,您终将成为使用ChatGPT的高手,工作效率高人一步。 欢迎加入我的gpt插件应用社区GPT-Kpi 社区 目录 ChatGPT简介 ChatGPT能做什么 最重要的Prompt 怎么学会使用prompt (ChatGPT中文魔法词语教程) 继续阅读

ChatGPT 使用 拓展资料:强化学习 策略梯度算法及Actor_Critic算法

ChatGPT 使用 拓展资料:强化学习 策略梯度算法及Actor_Critic算法 策略梯度算法是一类基于梯度的优化算法,用于求解强化学习中的策略函数,即输入状态,输出行动的函数。相对于其他的强化学习算法,策略梯度算法更加适合处理连续行动和高维状态空间的问题。 策略梯度算法的基本思想是通过迭代优化策略函数的参数,来最大化期望回报。在策略梯度算法中,每次迭代中都会收集一些经验数据,例如某一状态下采取某一行动所获得的回报值等,然后使用这些经验数据来计算策略函数的梯度。策略梯度算法的目标就是最大 继续阅读

自己实现 ChatGpt ?先学习 Pytorch 吧

最近 ChatGpt 的爆火,让人非常震撼,无论是知识问答、对话还是代码撰写,都非常符合人们的预期,让人不得不感慨机器学习的强大。不信?看下面: 图1 语言分析处理 图2 知识问答       图3 写故事 图4 写代码 体验完,的确让人惊掉下巴,甚至感受到一阵寒意,要被抢饭碗了!!。为此,还特意了解一下 继续阅读

课代表:ChatGPT及大模型专题研讨会

课代表:ChatGPT及大模型专题研讨会 周末应领导的要求听了一下午的直播(什么时候能不再做领导对啥感兴趣你就要每天围着什么转的牛马呢?),一打开还看到了自己本科的老师(死去的记忆突然攻击我)。既然做都做了,还是有些结果比较好,简单分享一下我的笔记和一些思考 以ChatGPT为代表的对话式大型语言模型 模型角度:具备涌现能力的模型(目前 继续阅读

中科院张家俊:ChatGPT中的提示与指令学习

中国科学院自动化研究所研究员张家俊以ChatGPT中的提示与指令学习为题,从ChatGPT简要技术回顾、迈向通用性的提示学习、从提示学习到指令学习、相关探索与学习等角度和在场听众展开技术分享。大模型主要有两个方向,一个是“预训练+参数微调”,就是大模型有了之后针对下游任务进行微调,然后得到一个面向下游任务的大的模型,二是“预训练+提示学习”,预训练之后不变,用提示学习激发大模型来 继续阅读

利用ChatGPT来学习Power BI

学习Power BI,或者说学习微软的相关产品的时候,最讨厌的就是阅读微软的官方文档,写的真的太硬了,有时候实时是啃不动,只能说不愧是巨硬。 但是,我们现在有AI帮忙了啊,ChatGPT3都通过了谷歌L3工程师的测试,更别说现在已经是ChatGPT4了,日常中的问题我们可以直接问AI了啊 比如,我现在有一个需求,我想自动缩放Power 继续阅读

OPNET学习笔记(一):创建一个小型局域网工程、场景并对比统计数据

OPNET学习笔记(一):创建一个小型局域网并对比统计数据前言1、创建工程2、配置场景3、创建场景4、选择统计量5、结果显示6、创建对比场景并对比7、总结 前言 关于OPNET的安装教程网上已经有很多,大家可以自行寻找,需要注意的是环境变量的配置一定要找对位置,包括OPNET的环境变量和C++的环境配置,如果一开始运行场景时有大量错误基本上就是环境变量没有配置好&#xff0 继续阅读

ChatGPT 使用 强化学习:Proximal Policy Optimization算法(详细图解)

ChatGPT 使用 强化学习:Proximal Policy Optimization算法 强化学习中的PPO(Proximal Policy Optimization)算法是一种高效的策略优化方法,它对于许多任务来说具有很好的性能。PPO的核心思想是限制策略更新的幅度,以实现更稳定的训练过程。接下来,我将分步骤向您介绍PPO算法。 步骤1:了解强化学习基础 首先,您需要了解强化学习的基本概念,如状态(state)、动作(action)、奖励(reward)、策略(policy)和价值函 继续阅读