V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  bwangel  ›  全部回复第 1 页 / 共 32 页
回复总数  626
1  2  3  4  5  6  7  8  9  10 ... 32  
2 天前
回复了 bzbs 创建的主题 程序员 有什么是 AI 做不了的?
负责。

任何一个公司,不可能由老板一个人做所有的事情。都需要将工作分解,然后每个员工做一部分工作,并向上级汇报。

如果老板将工作分解给了 AI, AI 当然可以完成。但 AI 不保证正确性,最后还得是老板自己去检查。

工作最终还是要人来完成,AI 只是工具。
5 天前
回复了 LawlietZ 创建的主题 程序员 4202 年了,前端开发一定必须要用 mac 吗
"不用 mac 的,注定只能度过一个相对失败的人生"

果粉也太逆天了吧,怎么能说出这种话。
您可能是正版音乐的受害者
59 天前
回复了 huangyx 创建的主题 职场话题 关于我和直属领导发生的 battle
https://i.imgur.com/bEfOCrm.png

https://m.weibo.cn/status/4156683695307365?mblogid=4156683695307365&luicode=20000061&lfid=4156683695307365

确实是你的问题.

打工人不一定能把每件工作都完成,做到了什么程度,什么进度,和相关人员同步,却是一种很重要的美德。
兄弟,你是对的。

如果你是和男性哥们亲戚一起出去,碰上别车的,直接干就完了。别怕,打架没那么容易坐牢的。

但是和怀孕的老婆出去,没必要惹事。

被别人骂了,只是难过几天。你老婆要是出事了,这个阴影就会伴随你一辈子。哪怕那个人进去坐牢了,也无法磨平你内心的伤痕。
十几万的车是用来开的,50 万以上的车已经不是用来开的来,是用来装逼的。

放飞无人机这个,开出去装逼确实可以。
https://linkerd.io/2.14/features/load-balancing/

不同 pod 之间响应时间不同才是正常的情况吧。

linkerd 专门有个负载均衡算法叫做 EWMA, 根据 pod 的响应时间,提供不同的流量值。响应时间越快的 pod, 收到的请求也越多。我们实测过,这样整体 p99 会更好。

https://github.com/mosn/mosn/pull/2274

曾有人想把这个负载均衡算法在 envoy 中也实现一遍,可惜最后没 merge

有个类似情况是 tcp 连接在多个线程之间如何分配

https://blog.envoyproxy.io/envoy-threading-model-a8d44b922310

envoy 的博客中提到了,多个线程监听了一个端口之后,连接具体分配到哪个线程完全是内核决定的。内核的策略也不是平均分配的,而是尽量塞满一个线程,再往下一个线程分配。

As discussed briefly above, all worker threads listen on all listeners without any sharding. Thus, the kernel is used to intelligently dispatch accepted sockets to worker threads. Modern kernels in general are very good at this; they employ features such as IO priority boosting to attempt to fill up a thread’s work before starting to employ other threads that are also listening on the same socket, as well as not using a single spin-lock for processing each accept.

因为请求发送到同一个线程上,能最大程度地利用内存缓存和 cpu 缓存,这样从整体来看,性能是更好的。
error 没有栈信息,配合 pkg.errors 的 WithStack 使用,增加了开发者的心智负担。

例如以下调用链

func api()

func service()

func rpc()

api -> service -> rpc

rpc 返回了一个错误,一层一层最终返回给了 api, api 拿到错误后,需要记录日志,它想知道错误是哪里来的,此时就需要栈信息。

目前的解决办法,是 rpc 返回错误时,error 用 pkg.errors ( https://github.com/pkg/errors/blob/master/errors.go) 的 Wrap 包装一下,service 包装时,就不能用 wrap 了,需要用 WithMessage ,要不然会出现两份栈信息。

这要求开发者对代码的层次结构非常清楚,哪些函数是最底层,哪些是上层。

你想想,你刚接手了一个 5w 行的项目,读了三天代码之后开始写一些小 feature 。这时候你能了解清楚哪些函数是最底层吗?这样很容易就写错了,然后错误信息里面可能就有 N 份栈信息。
122 天前
回复了 yujianwjj 创建的主题 Go 编程语言 go module 依赖的问题
c 提供 2.0 版本

a 依赖 c 的 1.0 版本
b 依赖 c 的 2.0 版本

golang 中只有大版本变了,才允许多版本共存。

小版本不同的话,取最小版本
154 天前
回复了 huahsiung 创建的主题 程序员 知识付费就是一个笑话。
曾经百度空间也是很好的网站,但越做越差,最后下线了。气的某个安全大佬想找那个产品经理当面对线。

我在 14 ,15 年使用 CSDN 的时候,它也是算是很好的博客,有很多高质量的文章,基本没有广告。

经历过这些之后,我在也不相信第三方的博客了,谁也不能保证这样的网站能存活 50 年以上。

我的博客都是用 hugo+git 存储的,就算 github 黄了,买个服务器,搞个 nginx 很容易就起来了。缺点就是评论是存在 github 的 issue 中的,github 黄了,这些评论也没了。
我想起别人给我讲的趣事。

某公司在新加坡和深圳都有分部,深圳的人把活抢过来干了。

新加坡那边的人想看文档,发现只有中文的。就要求写英文的。

深圳这边的人直接回怼,you should learn some chinese.
193 天前
回复了 LSB 创建的主题 阅读 各位,如果让你推荐 3 本书,你会推荐哪 3 本啊
我特别喜欢易中天的一段访谈,他说读书和学习是两回事。学习是抱着功利性的目的去,开始学习之前就有压力了,读书是为了愉悦自己,读书读完了,觉得爽到了,就够了。


所以我推荐《三体》 1 2 3, 我觉得它不会提升你的认知水平,也不会让人升职加薪,但读完了就是爽,真的头皮发麻的感觉。
是 python 语言的问题吧

1. 没有类型是硬伤,一个项目有 10 个以上的人参与,就会混乱不堪。
2. python 是真的慢,巨慢,内存用的又多。web 虽然是主要面向 IO 的场景,但谁家写 web 不算个 hash 啊,和 Go/Java 一比效率很低。3.11 能有 5 倍提速,就是之前底子太差了

现在 python3 开始推广 type hints 了。但它的 type hints 写起来也太繁琐了。为什么要选择一门写起来复杂,效率还低的语言呢?
我觉得楼主所在公司缺少创新的土壤。


当然,创新和赚钱是两回事,楼主的公司活下去应该靠的不是技术。
@asen1987

使用环境、专业需求、兼容情况、原帖 OP 明确的表态统统都不重要,买苹果就对了,还有什么比面子更要紧呢? 反正女生嘛,到最后还不都是刷个剧、看个网页,哪会用什么专业复杂的东西。mac 多好,往那一放,脸都感觉白两层,妆都不用画,倍儿神气。
----------------


这言论也太离谱了,女生也是人,也是辛苦考上大学的。也是要学专业课,毕业后也是要去找工作/考研的。

在你眼里女生就像小猫小狗的宠物一样,只要漂亮就好,什么事也不用干。。。
非计算机专业不推荐 mac

windows 很多软件 mac 下没有替代品。

mac 下 office 和 windows 的 office 还是有不同的,老师同学发个 word 过来,mac 下用 office 打开字体报警,要多闹心有多闹心。
248 天前
回复了 awesomes 创建的主题 音乐 所以你们都是怎么听歌的
不太建议使用音乐软件听,因为不可抗力和版权原因,有些歌曲找不到在线听的渠道

举两个例子,陈一发的《童话镇》,beyond 的《岁月无声》粤语版

我的歌都是 google 搜索下载到本地,一份放到网盘备份,一份传到手机
1  2  3  4  5  6  7  8  9  10 ... 32  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   我们的愿景   ·   实用小工具   ·   5308 人在线   最高记录 6543   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 42ms · UTC 05:59 · PVG 13:59 · LAX 22:59 · JFK 01:59
Developed with CodeLauncher
♥ Do have faith in what you're doing.