跳到主要内容

· 阅读需 1 分钟

Mac 环境下 node 安装 canvas@2.6.1 出现以下错误时

node: cairo-pattern.c:1127: cairo_pattern_destroy: Assertion failed. none - catched error

使用 brew 安装一下以下几个库

brew install pixman cairo pango

不过你可能会遇到 python2.x 升级失败的问题

可以试试

brew uninstall python@2
brew install python
brew upgrade python

升级到 python3.x

来源: https://github.com/Automattic/node-canvas/issues/1065#issuecomment-373381272

· 阅读需 1 分钟
SELECT default_character_set_name FROM information_schema.SCHEMATA
WHERE schema_name = "schemaname";

SELECT CCSA.character_set_name FROM information_schema.`TABLES` T,
information_schema.`COLLATION_CHARACTER_SET_APPLICABILITY` CCSA
WHERE CCSA.collation_name = T.table_collation
AND T.table_schema = "schemaname"
AND T.table_name = "tablename";

SELECT character_set_name FROM information_schema.`COLUMNS`
WHERE table_schema = "schemaname"
AND table_name = "tablename"
AND column_name = "columnname";

· 阅读需 1 分钟
const Fs = require('fs')
const Path = require('path')
const Axios = require('axios')

async function downloadImage () {
const url = 'https://unsplash.com/photos/AaEQmoufHLk/download?force=true'
const path = Path.resolve(__dirname, 'images', 'code.jpg')
const writer = Fs.createWriteStream(path)

const response = await Axios({
url,
method: 'GET',
responseType: 'stream'
})

response.data.pipe(writer)

return new Promise((resolve, reject) => {
writer.on('finish', resolve)
writer.on('error', reject)
})
}

downloadImage()

主要注意的是

  • responseType: 'stream'
  • response.data.pipe(writer)

· 阅读需 1 分钟

使用另外一个数组来初始化切片时,使用到的下标是一个半开区间的玩意儿,比如

package main

import "fmt"

func main() {
primes := [6]int{2, 3, 5, 7, 11, 13}

var s []int = primes[1:4]
fmt.Println(s)
}

得到的结果是

3,5,7

· 阅读需 9 分钟

知识一些之前只知道这些名词,但是并不知道这个名词的细节,以下内容仅是个人理解,也可能理解的不到位。

epoll

这个词之前只是尝尝看到对比

  • 同步 IO
  • 异步 IO
  • 阻塞 IO
  • 非阻塞 IO

这几个概念时,会提到的 IO 模型,比如:select、poll、epoll 这里之前描述的有问题,IO 模型中有一种是 IO multiplexing,常译为 IO 多路复用,几种实现是 select、poll、epoll。

而我之前一直不太理解这几个都有啥区别,最近看到知乎的一篇文章,也算大概理解了,可以参考这篇一个EOF引发的探索之路之四(理解golang的NetFD之I/O多路复用篇)

真正从代码层面了解到的是,看到的两个关于优化 golang WebSocket 内存占用的文章,使用 epoll 的方式来接收百万级别的长连接。问题出现的原因是,在通常情况下,我们都会为每个连接分配一个 goroutine ,这在一般情况下是没有什么问题的,而且比其他语言的线程级别的实现要轻量高效的多。但是 goroutine 是没有开销的吗?当然不是!根绝不同的平台,每个 groutine 需要 2K ~ 8K 左右的内存开销(在不做任何事情的情况下,参考 https://github.com/golang/go/blob/release-branch.go1.8/src/runtime/stack.go#L64-L82 ),那么这时候,有什么办法优化么?是有的。

通过 epoll 是如何优化的

通过文章中的代码优化示例(https://github.com/eranyanay/1m-go-websockets/blob/master/4_optimize_gobwas/epoll.go ),我们可以了解到,epoll 方式的是通过接收请求时获取 net.Conn 连接的 fd (File descriptor,具体的值其实是个 int 的值) 文件描述符,然后将文件描述符注册到 epoll 中,每当这个文件描述符所对应的连接有新的数据发送过来时,则会触发我们注册 epoll 时,选择监听的事件,这时,我们再通过这些触发事件的列表信息中的 fd 获取对应的连接,获取到这些连接之后,就可以去获取连接中接收到的数据了。这样只在连接没有任何数据时,并不需要一个固定的 goroutine 的开销。

引申的一些东西

由于涉及到了 net.Conn ,想到了 http 长连接怎么去处理 net.Conn,这时查到了一篇关于请求拦截的文章,参看 https://colobu.com/2016/07/01/the-complete-guide-to-golang-net-http-timeouts/。

还有另外的一些:

zero-copy

意思是零拷贝,这个概念我一开始怎么也猜不到是怎么样实现的,直到看了内存优化的这篇文章 A Million WebSockets and Go 的 3.4 节,发现也不是说完全不用内存,内存还是要的,只是说开辟一块很小的空间,重复利用,但是不对 http 中的原始内容复制到一块新的内存上去再处理,只是每次写入这一块小空间,处理完之后就直接重置这块内存空间,从而达到零拷贝的目的。

fd - File descriptor - 文件描述符

维基百科的解释可参考 https://zh.wikipedia.org/wiki/%E6%96%87%E4%BB%B6%E6%8F%8F%E8%BF%B0%E7%AC%A6, 另外一篇讲的还算是具体一点的是这篇 http://c.biancheng.net/view/3066.html

相关链接

标签:

· 阅读需 2 分钟

错误

如果你在使用 nodemailer smtp 发送邮箱时遇到了以下错误:

Error: Invalid login: 535 Error: authentication failed

也许是因为需要使用「客户端授权码」的问题。

解决

const _ = require('lodash')
const nodemailer = require('nodemailer')

async function main () {
const mailer = nodemailer.createTransport({
host: 'smtp.126.com',
port: 465,
pool: true,
secure: true,
auth: {
type: 'login',
user: 'xxxxx@126.com',
pass: 'xxxxx' // 如果开启了客户端授权码,则这里需要填写客户端授权码
},
tls: {
rejectUnauthorized: false
}
})

const sendMailOptions = {
from: 'xxxxxxx@126.com',
to: 'xxxxxx@163.com',
subject: ' 测试主题 ',
html: ' 测试内容 '
}

const result = await mailer.sendMail(sendMailOptions)

if (!_.startsWith(_.get(result, 'response'), '250 Mail OK')) {
return Promise.reject(new Error('Send mail fail'))
}

return result.response
}

main()

参考

https://cnodejs.org/topic/55b78babf30671210b35fa31

· 阅读需 1 分钟

可以通过这个地址访问到

http://alinode.aliyun.com/dist/new-alinode/alinode.json

其中

{
"version": "v4.7.2",
"date": "2019-03-11",
"files": "linux-x64,osx-x64-tar",
"npm": "6.4.1",
"v8": "6.8.275.32",
"uv": "1.23.2",
"zlib": "1.2.11",
"openssl": "1.1.0j",
"modules": "64",
"node": "v10.15.3",
"notes": [
""
]
}

version 是 alinode 版本,node 是官方 node 版本

· 阅读需 10 分钟

node-worker-farm 主要是用来将特定的逻辑,作为子进程的方式执行,由 worker-farm 来统一调度,分发调用任务。

模块构造函数

https://github.com/rvagg/node-worker-farm/blob/master/lib/index.js

可以看到构造函数主要是初始化 farm 容器,将给定的脚本文件路径加载进来等待调用的动作的分发。

可以看到入口有一个 farms 数组,用于存放 farm 容器,当你初始化多个 farm 实例的时候,都会将实例存储在这里,当你需要结束进程时,直接调用 node-worker-farm 暴露的 end 方法,即会销毁所有的 farm 实例。

不过这个特性也许是个坑吧,有人可能会不小心销毁掉不需要销毁的实例。

Farm

Farm 即是整个模块的核心了,它负责的功能有:

  1. 控制子进程的创建/销毁

  2. 新进来的函数执行任务的分发

  3. 控制调用的并发

各个参数的作用:

参数名说明默认值
maxCallsPerWorker每个子进程最多可以处理多少调用Infinity
maxConcurrentWorkers最大并发子进程数CPU 核数
maxConcurrentCallsPerWorker每个子进程最大的并发处理数10
maxConcurrentCalls全局最大并发处理数Infinity
maxCallTime单个 worker 最大处理时间Infinity
maxRetries最大重试次数Infinity
forcedKillTime在进程退出时,如果子进程未正常退出,则会强制退出100ms
autoStart初始化时,就自动最大数量的子进程false
onChild创建子进程时触发的函数空函数

函数调用

每次函数的执行是,构造了一个方法、参数的对象,发送给子进程排队处理。如果有限制最大全局并发数时,达到并发会抛出错误。

https://github.com/rvagg/node-worker-farm/blob/master/lib/farm.js#L312

每次调用函数在内部会执行 addCall 方法,这时就是构造了一个调用的对象信息。将调用信息存入全局队列中,执行 processQueue ,进行分发。

当前活跃的子进程个数小于最大并发子进程数时,创建一个子进程。这时,检查所有子进程正在处理的调用是否小于子进程的并发处理数。小于则将任务分配给这些子进程。

当发送任务时,如果有配置超时时间,则会注册一个超时回调,若超时,则整个子进程会被杀死,如果你的子进程中有多个调用正在执行,那么都会被干掉

处理完之后,通过 receive 方法进行后续的处理。

应用

现在默认的情况下,是最调用效率最优的方案,因为子进程被创建后,有调用的情况下,一直不会被销毁,省去了冷启动的时间。

但是,如果你需要在超时的情况下,cancel 掉正在处理的逻辑,maxCallTime 可以实现这个需求,但有个问题是,子进程被杀死时,所有其他的调用都会被终止,这不符合我们的期望,因此我们需要将 maxCallsPerWorker设为 1 ,让每个子进程同时只处理一个任务,处理完就退出,这样如果任务超时,不会对其他的任务造成影响。

思考

这样做的执行时间将会大幅增加,还有什么办法能够保证任务互不影响的情况,尽可能不降低执行效率呢。

目前想到的思路是,每次虽然只执行一个,但是每次执行完后不将子进程销毁,知道超时的时候才销毁一次,这样的话也可以减少每次创建子进程带来的开销。

你还有更好的方案吗?欢迎在下面留言讨论。