关于我做事情的逻辑和一些感想

关于如何做好一件事,现在基本上分为2派,而这2派,基本也是敏捷型的…

  1. 第一派为,前期规划,然后逐步迭代
  2. 第二派为,前期基本不规划,在边用的过程中边规划 而我,现在基本属于第二派的~

为什么我偏向第二派?

首先,目前做的事情,基本在市面上,没有找到一家是一样的…,或是自己已经在使用的…怎么理解呢? 比如,做一个X系统,之前已经有了,而且稳定使用了3年,那么这个系统我就认为市面上有了…那么这种系统,前期肯定是需要规划好…因为你已经做过了,现在只是要复现,或是改善,换句话说,就是重写…. 所以这类的系统,需求是很明确的,而且有很好的原型 ( 毕竟已经在使用 ),以及会遇到的各种问题!

但是工作中往往不是这样…有的时候,做一个产品,在做的时候,你都不敢确定想法是不是对的..然后就开始做了…这样很容易做出一些很华丽的,但是完全不实用的东西! 那么如何对抗这类浪费的产生?就是我这里说的第二派思维…

边执行边规划的思维方式

我认为对抗上述的浪费,最好的方式,就是让产品先用起来! 用起来,自然就会思路,而且一个好的产品,很多很有用的思路,往往来自用户! 这类基本无须解释,很多东西,如果你不用…根本不会有思路!

以日志分析系统来举例

如果我开发一个日志分析系统?我会怎么做 ?

第一步..先确定100%不变的需求

比如日志分析,你肯定有一个需求,就是看下每个站每天到底来了多少(百度)蜘蛛,这个需求是最基本的…至于后面要做的,比如:

  1. 看下蜘蛛的来访趋势
  2. 对蜘蛛下滑做预警
  3. 看下这个站蜘蛛的页面抓取占比
  4. 看下某个IP蜘蛛的比例
  5. 看下某组服务器蜘蛛的抓取比例
  6. 看下某个云服务商蜘蛛的抓取量
  7. … 等等这些鬼东西…不一定是真正的需求,也就是说,不一定每个seo都需要…
第二步: 确定100%不变的接口

什么是100%不变的接口,就是你要实现上述各种分析,100%需要用到的接口是什么?答案就是:

  1. 抓取日志,入库 ( 废话… )
  2. 各种灵活的筛选

举个例子,如果你要对某个站进行蜘蛛预警,比如预警的时间段就是上周同期…那么至少需要什么接口来配合?

  1. 需要把百度蜘蛛给筛选出来,并且有指定ip段,比如220开头的之类的
  2. 需要把某条域名筛选出来 ( 因为日志拉取是按服务器的 )
  3. 需要筛选出日期….
  4. 最后才是预警……

数据分析的第一步,肯定是准备数据,准备数据的核心,就是先要是筛选出需要的数据…我认为这是数据分析根本….

第三步: 做出一个可以用的东西

如果上述接口弄好以后,配合一个简单的前端,那么这个系统起码可以用了….因为不管前端的展示,排版乱七八糟都没事…因为起码可以实现,各种方式的灵活查询…

这就是一个闭环

我觉得实现了上述三步以后,那么一个小闭环就基本成功了….前期花的更多的精力,应该是让产品能用起来,而不是让去纠结各种排版方式…

为什么我如此推崇这种方式

因为这样的闭环很小.如果一个有经验的技术,很快也许可以做出来,确实,后面需要根据需求不断的去修改… 但是这个修改的过程 ,本身也是一种沟通, 对产品的了解,就是在每一次这个小迭代中循环加强…

就像学习方法里面提到,最好的学习方法就是间隔重复….

至此,我觉得这是敏捷的核心,因为只要确定了100%需要用到最小原子接口! 那么就不会做无用功….就算是构架不行.也可能通过比较灵活的方式,就能直接进行重组…


我认为的敏捷的哲学

就是不断进行小循环,小重构,小步慢行的前进…

 

本站出售的源码只允许用于合法用途,以及学习交流技术层面,凡是用于非法用途的与本站无关,本人不承担任何责任!未经本站允许不得转载、倒卖克胡网络 » 关于我做事情的逻辑和一些感想
分享到:
赞(0)

评论抢沙发

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址
Hello,欢迎来咨询~