技术一月 23, 2026二刷 NASA 电机设计备忘录:“多物理场耦合”才是通关秘籍关键词:#电机设计#NASA#永磁同步电机你好!我是老列,一个在机电领域摸爬滚打了15年的“老工头”。今天不聊那些空洞的行业黑话,咱们把目光投向云端。⚡最近我翻看了NASA的一份硬核技术报告——《飞机永磁同步电机的解析设计与性能评估方法》。不禁感叹:咱们平时搞地面工业电机的,觉得功率密度做到极致了,电机PMSM
tutorial一月 21, 2026FOC 就是把交流当直流使?老列带你捅破这层窗户纸FOC就是把交流当直流使?老列带你捅破这层窗户纸你好!我是老列。👋咱们上一篇聊了那些高大上的航空电机硬件设计,算是把“肉体”构造摸了一遍(筋骨还放在后头吧)。今天,咱们得给这具钢铁躯壳注入“灵魂”——FOC(磁场定向控制)。⚡说实话,当年(前两天)我刚接触FOC的时候,也被满屏的坐标变换、SVPWtrickstutorial
工具七月 24, 2025ios黄页支持订阅啦,外卖、快递、推销一眼便知!哈喽,大家好,我是张小跳!还记得我之前写的那篇《ios黄页:可算让iPhone好用了点儿》吗?那个手动导入vCard的方法,虽然能解一时之急,但每次更新都得手动操作,简直不要太麻烦!不过别担心,今天我带来了一个终极解决方案,让你一劳永逸,彻底告别手动更新的烦恼!那就是——CardDAV订阅!🤔什么ios黄页iPhoneCardDAV
分享九月 24, 2021Python-Latex主题分享Python-Latex主题分享人生苦短,我用PythonLifeisshort,youneedPython——BruceEckel优点优雅、明确、简单特点易于上手:跨平台,开源,短小精悍易于阅读:没有太多仪式化的东西:使用变量:声明、定义……乍一看就能知道在干啥丰富的库:(CSDN???)Pilltricks工具
设置一月 7, 2021mac开启HiDPI什么是HiDPI全名:HighDotsPerInch它使用横纵2个物理像素也就是4个物理像素来显示1个像素区域,结果就是图像的细节得到翻倍、更清晰、边缘更平滑。拿13寸的MacBookPro举例,它的屏幕物理分辨率是2560x1600,所以原生的HiDPI分辨率就是1280x800。更高的一档144settingsHiDPI
笔记九月 8, 2020强化学习:控制工程师帮你醍醐灌顶这里有很多形象的图,方便理解强化学习的公式知乎白话强化学习,有空了可以来看强化学习-11:MatlabRLAgent:由Policy和RL_Algorithm构成policy负责将observation映射为actionRL_Algorithm负责优化policyEnviroment:输入actio强化学习 RLMatlab
强化学习笔记九月 8, 2020Getting Started with gymgym入门gym是用于开发和比较强化学习算法的工具包。它不对代理的结构做任何假设,并且与任何数字计算库(例如TensorFlow或Theano)兼容。gym库是测试问题(环境)的集合,您可以用来制定强化学习算法。这些环境具有共享的接口,使您可以编写常规算法。安装首先,您需要安装Python3.5+。强化学习 RLgym
强化学习实践九月 3, 2020RL实践2——RL环境gym搭建RL回顾首先先来回顾一下强化学习问题中,环境Env和代理Agent分别承担的角色和作用。RL组成要素是Agent、Env代理和环境分别承担的作用Agent:由Policy和RL_Algorithm构成,这种对RL_algorithm的算法理解比较宽泛policy负责将observation映射为ac强化学习 RLgym
强化学习实践九月 3, 2020RL实践3——为Agent添加Policy、记忆功能参考自知乎(叶强)Introduction在实践2中,介绍了gym环境的定义和使用方法。在实践1中,介绍了动态规划DP求解价值函数并没有形成一个策略Policyπ\pi来指导agent的动作选取,本节将利用SARSA(0)的学习方法,帮助agent学习到价值函数(表),指导ϵ\epsilon-gre强化学习 RLSarsa
强化学习实践九月 2, 2020RL实践1——动态规划值迭代RL实践1——值迭代求解随机策略参考自叶强《强化学习》第三讲,方格世界——使用动态规划求解随机策略动态规划的使用条件时MDP已知,在简单游戏中,这个条件时显然成立的使用Valueiteration的方法求解每个状态的价值函数,迭代收敛之后,对应最优策略生成。注意:动态规划和强化学习都用的价值函数,区强化学习实践动态规划 dynamic programming
强化学习笔记八月 27, 2020强化学习笔记10:经典游戏示例 classic games1、前沿stateofart学习经典游戏的原因规则简单,细思又很深入历史悠久,已经被研究了几百年对IQ测试有意义是现实世界的问题的缩影已经有很多RL案例,战胜了人类,例如2、游戏理论gametheory游戏的最优性对于石头剪刀布来说,最优策略,显然和对手agent策略相关,我们期望找到一种一致的策略强化学习 RL经典游戏示例
强化学习笔记八月 23, 2020强化学习笔记9:探索和利用 exploration and exploitation1、introduction本章的主题是关于利用和探索的矛盾:Exploitation:利用当前已知信息做决策Exploration:探索未知空间获取更多信息最佳的策略是用长期的眼光来看,放弃短期高回报获取足够策略是让策略变成全局最优的必要条件几个基本的探索方法:主要分三类:随机基于不确定性信息状态强化学习 RL探索 exploration利用 exploitation
工具八月 21, 2020解锁播放器的隐藏功能👀用过的都说好😎动机🤔有时候想看视频,遭遇1-2min的广告,望而却步“歪,我要看的视频也就3min好嘛???”有时候你想看个新闻,却还要装个Flash想起乔帮主说的话“移动时代是低功耗设备、触摸屏界面和开放网络标准的时代,Flash已经落伍。”于是乎,mac和win平台下,都有解😎SolutionMac下,果IINAPotplayeriptv
工具八月 19, 2020免费图床搭建:Github+Picgo+jsDelivrIntroduction简单说图床就是一个在网络上存储图片的地方,目的是为了节省本地服务器空间(.md和.html文件里图片是以链接的形式),加快图片打开速度,主要是个人博客和网站使用。微博图床:挂了已经SM.MS:国外服务,慢imgur:国外,被Q,慢七牛云:需要注册国内域名,备案麻烦阿里云:要花图床PicgojsDelivr
强化学习笔记八月 17, 2020强化学习笔记8:整合学习和规划1、introduction第7章节,讲了PG,从episode经验学习到策略policy之前的章节,讲了从episode经验学习到价值函数本章,从过去经验学习到环境模型通过规划的手段,构建值函数或者策略Model-free没有模型从经验中学习,得到价值函数Model-based有模型根据模型规划价强化学习 RL学习 Learning规划 Planning