技术
-
How to create a new repo in github?
If you write codes only for your job and don’t really try to have your personal little projects you may never create a brand new project in repo even you have been written codes for years. So how to create a new repo in gitbut sounds easy but a lot of experienced developers may never do that. Int he other hand, whether he/she can create a repo without any trouble or google search is a arguable way to determine whether he/she is a passionate developers or not (no argument needed here, personal option).. Ok. let’s start. Normally when you build a new repo you may use third part bootstrap tool…
-
Docker Container的命名
因为下划线在域名中是非法的,所以HttpParser会认为这个是非法。但是在docker环境里面每一个container的名字是可能包含下划线的。当一个container试图访问另一个的时候最简单的方式就是通过container的名字,这个时候就会出错。 这个问题折腾了我2个小时。。 下面是异常 <head><title>HTTP Status 400 \u2013 Bad Request<\/title><style type=\"text/css\">body {font-family:Tahoma,Arial,sans-serif;} h1, h2, h3, b {color:white;background-color:#525D76;} h1 {font-size:22px;} h2 {font-size:16px;} h3 {font-size:14px;} p {font-size:12px;} a {color:black;} .line {height:1px;background-color:#525D76;border:none;}<\/style><\/head><body><h1>HTTP Status 400 \u2013 Bad Request<\/h1><hr class=\"line\" /><p><b>Type<\/b> Exception Report<\/p><p><b>Message<\/b> The character [_] is never valid in a domain name.<\/p><p><b>Description<\/b> The server cannot or will not process the request due to something that is perceived to be a client error (e.g., malformed request syntax, invalid request message framing, or deceptive request routing).<\/p><p><b>Exception<\/b><\/p><pre>java.lang.IllegalArgumentException: The character [_] is never valid in a domain name.\n\torg.apache.tomcat.util.http.parser.HttpParser$DomainParseState.next(HttpParser.java:994)\n\torg.apache.tomcat.util.http.parser.HttpParser.readHostDomainName(HttpParser.java:890)\n\torg.apache.tomcat.util.http.parser.Host.parse(Host.java:66)\n\torg.apache.tomcat.util.http.parser.Host.parse(Host.java:40)\n\torg.apache.coyote.AbstractProcessor.parseHost(
-
Java Agent的使用
最近集成Rapid7 的tcell 安全agent到我们的application。在report里面可以显示各个api end point的访问情况和返回情况,并且还能检测xss等数据。好奇他们是怎么做的,顺手查看了文档,发现其实挺简单。其实就是在运行java程序的时候 加入 javaagent的参数。不同的framework tcell提供了不同的agent,比如说Sprint,Dropwizard。 javaagent是通过修改bytecodes的方式修改运行程序的。这里有一篇很好的文章介绍java instrumentation的: https://www.baeldung.com/java-instrumentation . 通过javaagent还能做挺多的其他东西,比如说: 动态的添加loghttps://lightrun.com/debugging-live-java-applications-with-lightrun/ Jolokia is an agent converting JMX to http based REST end points. https://jolokia.org/reference/html/agents.html#agents-jvm https://www.baeldung.com/java-instrumentation . 自定义任何东西 后记:我以为Sentry也是通过javaagent实现的,看了之后发现不是。
-
Log对于程序运行速度的影响
这个其实是老话题。但是在生产环境下真的对性能的影响还是很大的。下面是今天实际遇到的一个例子。 14:20的时候turn off log,以前的log是35k/min,减少到10k。 下面是处理速度的提高(除去无用log以外,反应traffic的log数量) 将近10倍的速度提升。 所以,如果看log过多,在我这个case里面一个单线程的程序每分钟produce30k的log,就直接把log level提高看一下性能区别。其实这样做反倒是最简单的。 但是其实真的产品环境下的各种metrics很重要。一个系统慢,应该能立刻看到哪里引起的慢。不过不知道怎么把log的时间单独剥离出来,显示log的运行时间。可能有library可以做这个事情?有人知道么? 顺便: 产品的各种security,不能做这个不能做那个,但是所有的engineer都可以ssh到所有的产品的instance,然后sudo -i. 这个合理么?😂
-
What makes it so hard to migrate to Micro service
We have been tried for so many years but since we didn’t admit we failed officially there is no formal conclusion what went wrong? Or what really made it so hard. By reading this book Microservices patterns maybe there are couple of main reasons The user interaction is very hard to change.Distribute the data to different micro services would cause that it would be more complex to complete one complex tasks. For example, when a customer want to create a subscription we potentially need to create an account, create a subscription, even doing payment, invoice and etc. Since we are B2B business it make it very hard to change the…
-
Data Connect的消息处理机制
Data Connect Service提供同步数据到第三方。数据的change是来自数据库binlog生成的CDC (Change Data Capture)。 在系统设计中有几个挑战 Ordering的问题。前端的service并不保证顺序。那Data Connect如何保证顺序呢?技术上来讲是不可能的。但是我们可以做到在不保证顺序的情况下依然能正确处理。方法是我们从最开始的服务开始引入了Versioning的概念。如果data connect拿到的对于某一条记录的event早于之前的event,我们就丢弃。这个逻辑我们叫stale checker。这个在sync的逻辑里是可行的。比如说我们有“Create->Update”,其实对于sync,create和update都是基于Id的upsert,如果我们拿到create晚一些,就直接丢弃。同样的“update->update”也没问题,当然前提是每次我们都是拿到整个记录的full payload,不然就会有问题。我们并没有field level的versioning。 Duplication。Duplication其实我们并不太在意,因为我们的服务基本上是Idempotent的,也就是说同样的消息可以被处理两遍,没问题。原因是update本来就可以重新执行,create也可以,因为我们是根据id来的。还有就是我们有stale checker其实就能解决很多的问题。 Partition. 最开始的版本没有separate topic。我们partition by billing account id。 好处有几个 减少一个tenant占用所有的consumer的问题。当然side effect是某一些consumer会比较慢,如果一个tenant traffic比较多。 减少row locking。 控制并发。其实并发的控制我们其实可以用Resillience4j – 远程方法调用的工具箱 里面提到的同步控制机制。但是也会有负面影响。 潜在的enhance workers。我们不应该consumer thread里面处理所有的东西。应该用workers,这样就更容易scale out。问题是我们还是要保证worker的同步问题。如果有两个update对于同一个billing account,我们要保证scale checker依然可以工作。 减少tenant之间的影响。应该可以用dedicated topic来做。当然机制可能会比较复杂。我们应该还是需要common pool来出来ad-hoc traffic
-
Resillience4j – 远程方法调用的工具箱
在MicroService的世界,很多的远程调用。只要有远程调用就会有网络不稳定问题,某些api会fail掉,有时候api会很长时间没有反馈,导致client的线程大量占用。 其实在非microservice的场景,数据库连接也有同样的问题。数据库操作有时候会遇到lock的问题,需要重试基本上是肯定的。 Resillience4j这个library专门针对这些常用的场景提供了非常容易使用的library。几个典型的功能如下: Retry 根据返回的结果,或者异常决定是不是要retry,如何retry。这个场景太常见了。比如说对于locking issue可以这么做。如果是data integrity的错误,就不需要retry。 Circuit Breaker 根据一个threshold,如果说一定时间内错误率到达一定程度,预计不断请求返回错误,还不如直接忽略,继续执行。特别是有时候错误会消耗额外的等待时间。 Rate Limiter 限制call的rate。比如说限制一秒钟一次call Time Limiter 限制执行的等待时间。 BulkHead 限制并发执行的数量。 Cache 一定时间内的重复call的cache,提高性能。 Fallback 提供可选的方案。比如说Object Query不行可以转ZOQL
-
AWS Service花费的潜在提高空间
用AWS Service也有3,4年的时间时间。对于花费我觉得还是有挺大的提高空间. ECS中采用Spot instance。 DynamoDB的花销应该还可以优化。历史数据应该可以设置TTL清除。这个应该非常简单。减少不必要的write 访问。 Redis的使用可以减少,可以用DynamoDB 减少ECS中instance的数量,采用auto scaling。 更好的平衡ec2 instance的cpu,memory的数量和每一个tasks的需求。保证每一个ec2 instance都被合理的利用。 其实这些东西很多都很简单,但是没有做的原因是从领导就没有强有力的推动这些东西。推动的人技术很弱,没办法找到好的切入点。当然后来新的领导来了,鸡飞狗跳,大家都在离开,还有谁真的在乎呢?
-
Tcp/Ip如何工作 (Kafka producer机制)
Application如果需要发送消息,是先发到操作系统的socket write buffer. 如果buffer(queue)满了,就是tcp congestion。同样的,外部来的消息会先到操作系统的socket receive buffer.如果buffer满了,操作系统就不会ack那个消息,也是congestion。 这个buffer的尺寸并不大,可以通过一下命令查询。参数分别代表,min, default, max: 之所以看到是因为看这篇文章http://cloudurable.com/blog/kafka-tutorial-kafka-producer-advanced-java-examples/index.html#:~:text=The%20Kafka%20Producer%20has%20a,acks%20to%20control%20record%20durability. 如果act是0,那么application只是把消息送到socket buffer就可以了。 还有一个配置参数 buffer.memory 这个是application level的setting,当broker无法访问,就会把消息放在内存中等待,在 max.block.ms 到期之前,send就会等待,到期就会抛一场。producer 也有重试机制。 但是这里有一个疑问,broker不可访问,是不是操作系统的socket write buffer也会满?我觉得不会,如果socket buffer满了就会影响所有的application,这个相当于外部的一个目标无法访问就导致所有的对外连接失效。应该是有一个机制操作系统知道外部网络不可送达,然后就会清楚缓存,告诉application目标不可达,然后application就会cache请求,然后不断的重试。 https://stackoverflow.com/questions/49649241/apache-kafka-batch-size-vs-buffer-memory
-
AWS上docker container的配置