MENU

SQ6改造之添加双反镜头

这应该算一个补遗的记录,因为SQ6加双反镜头的改造网上视频很多,但是有很多没有讲清楚细节,所以写这篇文章记录下。

这个改造主要方法就是Kavin Kadooka在HACKADAY.IO开源的方法,包括开源的3D打印文件,具体project细节在这个链接

首先就是需要的配件,主要配件如下表:

捡鼠标垫配电脑系列——垃圾佬的黑苹果

家里上一个台式机升级留下了一条8G内存,hipda里年前撸了个机箱,前几天台式机水冷保修去了又撸了个新的风扇,所以一直心痒痒这三个硬件怎么利用起来。家里硬盘太多,硬盘的钱也省了。网上翻了一天黑苹果配置,咸鱼各种淘,配了个5年前配置的电脑用来黑苹果,除了CPU差一点,别的其实基本感觉不出来,日常很堪用。

•    CPU i5 4690
•    内存 8g
•    主板 技嘉b85hd3
•    显卡 rx570 4g
•    硬盘 1t
•    电源 安钛克半模组 450w
•    cpu散热 酷冷至尊T400i
•    无线网卡 买了个不免驱的换下原来台式机上免驱的

总共花了1500,显卡买了矿卡,卖家hipda坛友推荐的,老板说锻炼了3个月,拿到很新,看着像水洗的,也不管了,上机还好暂时安稳。大头是CPU和显卡,加起来1000块了,别的零零碎碎加起来500。

装了mac os 10.14 mojave,clover引导,基本都是免驱的,个别还有问题,比如一修改clover的config就进不了系统,也是醉了,连机型也不能改,现在被识别为macbook air,看着有点别扭。还有就是CPU变频好像没搞定,显卡没怎么用上,硬解没搞定,而且好像昨天连休眠也有问题。问题还是挺多,但是能用了,不做大型计算应该还很流畅的。

折腾一个周末,太花时间了,从07年第一次折腾黑苹果到今天,基本每台笔记本都折腾过,这应该最后一次这么折腾了,太浪费时间了,不过现在clover引导已经方便多了。

mojave的黑色主题还挺不错的。

mojave

满江结婚

两个室友都结婚了,一个我喝得不省人事,一个当了估计唯一一次伴郎。和这群人认识已经快13年了,当初的意气风发,现在都是半个油腻大叔,从一个个为了拼酒喝到吐到现在看着一个个体检指标箭头都改喝饮料,感觉时间太快,看着ktv 里唱着聊着的各位,感谢那五年的一起学习生活相处,期待下个十年二十年。
Happy wedding !

帕累托累积分布

前两天实验室师妹来问平时我们计算腹地的前百分之多少的人怎么定这个到底怎么计算,以及每次都要数据库到处数据excel算这个问题,想想自己也需要tableau连接数据库做可视化后挑选出相应的分段值,就想着写个脚本来实现。花了半个小时写了个直接读取csv输出最靠近10,20....90%分段值的数,查了下还是没搞明白是不是叫帕累托累积分布,不过应该是一种累积分布。

后续需要修改的就是让python直接读取postgresql数据库,然后在排序计算分段值,而且要提高下效率,现在的计算效率不是很高,不过现在能用就行(此处要配个罗玉龙那个又不是不能用的牌子233)。

顺便学了下github,把代码也放了上去,以后代码也都放github上。

https://github.com/imcake/pareto


#!/usr/bin/env python
# -*- coding: utf-8 -*-
# @Date    : 2018-11-01
# @Author  : imcake (likaike@gmail.com)
# @Link    : https://github.com/imcake

##############################################
# 计算累积频率分段值(帕累托图)
# 输入带有需要累积的值的csv文件和该值的字段名
# 输出百分之10-90对应的最相近数值
# 输出结果为字典,10:xxx, 20:xxx, ..., 90:xxx
#############################################
import pandas as pd


def get_pareto_penct(csv_name, value_column):
    data_df = pd.read_csv(csv_name, header=0)
    pencentList = []
    pencentage = 0
    for i in range(len(data_df)):
        rawList = data_df[value_column].tolist() # change colume to list
        rawList.sort(reverse=True)
        pencent = float(rawList[i]) / sum(rawList) * 100
        pencentage = pencentage + pencent # calculate the accumulated pencentage
        pencentList.append(pencentage)
    # add pencentage and raw date to a dict
    dictionary = dict(zip(pencentList, rawList))
    init_penct = [10, 20, 30, 40, 50, 60, 70, 80, 90]
    value = []
    for j in init_penct:
        # get the closest raw date of certain pencentage
        dict_key = min(pencentList, key=lambda x: abs(x - j))
        value.append(dictionary.get(dict_key))
    result_dict = dict(zip(init_penct, value))
    return result_dict


if __name__ == '__main__':
    csv_name = 'pareto.csv' # csv文件名
    value_column = 'TOTAL' # 需要累积的字段名
    print get_pareto_penct(csv_name, value_column)

Earth Porn预告

这是个容易被屏蔽的标题。

今天在google earth看到了原来自己做过项目的基地,顺便去看了别的项目基地,有些建了,有些还空着。

想来从11年开始工作已经6年了,中间三年读研,也已经做了一些项目,跟踪下这些曾经做过各种分析的地块这些年的变化也算是件有趣的事情。

记不清楚earth porn是北美贴吧reddit上的一个板块还是ins上的一个标签,觉得这个标签还是很适合我这个想法的,就用这个来做一个系列,不限于我做过的项目,也可以是我去过的地方。

就预告下,今天家里翻墙不给力,果然不能只备一个梯子!