Android·HTTP超时机制

  次阅读 作者:智能小宝 来源:互联网 2015-09-28 16:24 我要评论(0)

由于手机端应用的响应,与当时的无线通信网络状况有很大的关联。而通信网络往往具有不稳定,延迟长的特点。所以,在我们的应用程序中,当我们请求网络的时候,超时机制的应用就显得特别重要。

超时机制主要有:

1、HTTP请求超时机制

2、Socket通信超时机制

HTTP请求超时机制

01

public static void main(String[] args){

02

03

long a=System.currentTimeMillis();

04

try{

05

URL myurl = new URL( http://www.oschina.cn/ );

06

URLConnection myurlcon = myurl.openConnection();

07

myurlcon.setConnectTimeout(1000);

08

myurlcon.setReadTimeout(1000);

09

BufferedReader in = new BufferedReader(newInputStreamReader(myurlcon.getInputStream(), UTF-8 ));

10

String inputLine;

11

12

while ((inputLine = in.readLine()) != null){

13

System.out.println(inputLine);

14

in.close();

15

System.out.println(System.currentTimeMillis()-a);

16

}

17

} catch (MalformedURLException e) {

18

e.printStackTrace();

19

} catch (UnsupportedEncodingException e) {

20

e.printStackTrace();

21

} catch (IOException e) {

22

e.printStackTrace();

23

}

24

25

}

如果超时将抛出以下异常

01

java.net.SocketTimeoutException: Read timed out

02

at java.net.SocketInputStream.socketRead0(Native Method)

03

at java.net.SocketInputStream.read(SocketInputStream.java:129)

04

at java.io.BufferedInputStream.fill(BufferedInputStream.java:218)

05

at java.io.BufferedInputStream.read1(BufferedInputStream.java:256)

06

at java.io.BufferedInputStream.read(BufferedInputStream.java:313)

本站文章信息来源于网络以及网友投稿,本站只负责对文章进行整理、排版、编辑,是出于传递更多信息之目的,并不意味着赞同其观点或证实其内容的真实性。如果您有什么意见或建议,请联系QQ28-1688-302!

人工智能实验室
相关文章相关文章
  • 英国研发“杀生”机器人 通过生命体获取能量

    英国研发“杀生”机器人 通过生命体获取能量

  • 韩春雨称已能重复实验结果 近期将有消息公布

    韩春雨称已能重复实验结果 近期将有消息公布

  • 未来两年人工智能要怎么走?看这篇就够了

    未来两年人工智能要怎么走?看这篇就够了

  • 无人驾驶汽车如何改变城市生活?听听他们怎么说

    无人驾驶汽车如何改变城市生活?听听他们怎么说

网友点评网友点评
阅读推荐阅读推荐

据国外媒体报道,在过去两年内,聊天机器人(chatbot)、人工智能以及机器学习的研发和采用取得了巨大进展。许多初创公司正利用人工智能和...

霍金 视觉中国 图 英国著名物理学家霍金(Stephen Hawking)再次就人工智能(AI)发声,他认为:对于人类来说,强大AI的出现可能是最美妙的...

文|郑娟娟 今年,人工智能(AI) 60岁了。在AI60岁的时候,笔者想要介绍一下AI100,一个刚刚2岁的研究项目,但它的预设寿命是100年,甚至更长...

AlphaGo与李世石的人机大战,为大众迅速普及了人工智能的概念。 但对谷歌而言,除了下围棋,现在的人工智能进展到哪一步了?未来,人工智能...