博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
静态库.a文件 没有ARC和非ARC之分
阅读量:5217 次
发布时间:2019-06-14

本文共 328 字,大约阅读时间需要 1 分钟。

ARC是一种编译阶段生效的技术,是在编译的时候,在对应的地方插入释放语句。

所以,不管是不是ARC,编译生成的.a,都是一样的,具有内存释放语句的c的静态库。

 

另工程中添加的.m文件,可以使用ARC和非ARC的混合模式。

选中工程->TARGETS->相应的target然后选中右侧的“Build Phases”,向下就找到“Compile Sources”了。

如果你的项目使用的非ARC模式,则为ARC模式的代码文件加入-fobjc-arc标签。

如果你的项目使用的ARC模式,则为非ARC模式的代码文件加入 -fno-objc-arc标签。

转载于:https://www.cnblogs.com/417460188dy/p/3483826.html

你可能感兴趣的文章
40、JSON数据源综合案例实战
查看>>
44、开窗函数及案例
查看>>
42、JDBC数据源案例
查看>>
46、Spark SQL工作原理剖析以及性能优化
查看>>
45、sparkSQL UDF&UDAF
查看>>
http 错误代码表
查看>>
47、Spark SQL核心源码深度剖析(DataFrame lazy特性、Optimizer优化策略等)
查看>>
50、Spark Streaming实时wordcount程序开发
查看>>
48、Spark SQL之与Spark Core整合之每日top3热点搜索词统计案例实战
查看>>
51、Spark Streaming之输入DStream和Receiver详解
查看>>
49、Spark Streaming基本工作原理
查看>>
52、Spark Streaming之输入DStream之基础数据源以及基于HDFS的实时wordcount程序
查看>>
53、Spark Streaming:输入DStream之Kafka数据源实战
查看>>
55、Spark Streaming:updateStateByKey以及基于缓存的实时wordcount程序
查看>>
56、Spark Streaming: transform以及实时黑名单过滤案例实战
查看>>
58、Spark Streaming: DStream的output操作以及foreachRDD详解
查看>>
59、Spark Streaming与Spark SQL结合使用之top3热门商品实时统计案例
查看>>
60、Spark Streaming:缓存与持久化机制、Checkpoint机制
查看>>
61、Spark Streaming:部署、升级和监控应用程序
查看>>
62、Spark Streaming:容错机制以及事务语义
查看>>