300分求解--言者有分,up一下也行。 (100分)

L

lzhuan

Unregistered / Unconfirmed
GUEST, unregistred user!
问题有了新的进展:
只是现在有个新的问题:
搜索引擎得到的结果页的html源码如何得到?
因为结果页只是一个占时性的HTML文件,这样就无法通过文件名来操作,
好象也无法通过url来操作。
我现在只能得到这个结果页的句柄。
是否可以把这个结果页存为一个临时性文件,有了文件名就可以操作了。
或者有其他的方法得到。
请赐教!
完成后我会贴出整个程序的源码,供大家参考,谢谢
急!
 
对不起,分错了。我会把余下的200分给比较满意的答案。
 
我也帮你UP~
 
好事情啊,UP
 
只能 up 一下了。
 
我也来,up
 
心有余而力不足啊?
帮你UP吧!
 
首先,收缩引擎不是自己的,所以不可能后台处理。
就像我以前把网页上查出来的单位信息保存数据库一样。
你可以判断字符'http://'或html中的'a href='
然后将这些网址写入文本,不过其中有一些广告连接也进去了。
 
upupuuppppuu
 
难道没有其他办法吗?请高手指点
 
我也来一个up
 
搜索后的网页中所列出的每一项都有:主题URL链接,文本简介和变换
了色彩的文本网址。你需要的就是第一项和第三项,不过我也不知道
如何获取这些数据。
如果全部保存成纯文本,再特征提取也太麻烦了吧
 
转贴:
来自:小猪, 时间:2002-7-24 11:33:00, ID:1219637
转贴一个,我用过的,没问题.
10、提取网页中所有链接
  这个方法来自大富翁论坛hopfield朋友的对一个问题的回答,我本想自己试验,但
总是没成功。
  var
   doc:IHTMLDocument2;
   all:IHTMLElementCollection;
   len,i:integer;
   item:OleVariant;
  begin
   doc:=WebBrowser1 .Document as IHTMLDocument2;
   all:=doc.Get_links;             //doc.Links亦可
   len:=all.length;
   for i:=0 to len-1 do
begin
    item:=all.item(i,varempty);        //EmpryParam亦可
    memo1.lines.add(item.href);
   end;
  end;

 
顶部