坊间有传MacOs体系不合适机器(ml)学习和深度(dl)学习,这是板上钉钉的刻板印象,就好像有人说女生不合适编程一样的离谱。现而今,无论是Pytorch结构的MPS模式,仍是最新的Tensorflow2结构,都现已可以在M1/M2芯片的Mac体系中毫无桎梏地运用GPU显卡设备,本次我们来分享如何在苹果MacOS体系上装置和装备Tensorflow2结构(CPU/GPU)。

Tensorflow2深度学习环境装置和装备

首要并不需要任何虚拟环境,直接本地装置Python3.10即可,请拜见:一网成擒全端包括,在不同架构(Intel x86/Apple m1 silicon)不同开发渠道(Win10/Win11/Mac/Ubuntu)上装置装备Python3.10开发环境 ,这儿不再赘述。

随后装置Tensorflow本体:

pip3 install tensorflow-macos

这儿体系会自动挑选当前Python版别的Tensorflow装置包:

➜  ~ pip install tensorflow-macos
Collecting tensorflow-macos  
  Downloading tensorflow_macos-2.12.0-cp310-cp310-macosx_12_0_arm64.whl (200.8 MB)  
     ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━ 200.8/200.8 MB 4.7 MB/s eta 0:00:00

装置包大小为200兆左右,假如下载不了,可以挑选在pip官网直接下载根据python3.10的装置包:pypi.org/project/tensorflow-macos/#files

事实胜于雄辩,苹果MacOs能不能玩儿机器/深度(ml/dl)学习(Python3.10/Tensorflow2)

然后直接将whl文件拖拽到终端装置即可。

接着装置Tensorflow的GPU插件:tensorflow-metal,它是一个TensorFlow的后端,运用苹果的Metal图形API来加速神经网络核算。Metal是一种高功能图形和核算API,专门为苹果设备的GPU规划,可以实现更快的神经网络核算。运用tensorflow-metal可以明显提高在苹果设备上运行TensorFlow的功能,尤其是在运用Macs M1和M2等根据苹果芯片的设备时。

pip3 install --user tensorflow-metal

注意这儿装置指令必须带上–user参数,不然可能会报这个错误:


Non-OK-status: stream_executor::MultiPlatformManager::RegisterPlatform( std::move(cplatform)) status: INTERNAL: platform is already registered with name: "METAL"

装置好之后,在Python终端运行指令:

import tensorflow
tensorflow.config.list_physical_devices()

程序回来:

>>> import tensorflow
>>> tensorflow.config.list_physical_devices()  
[PhysicalDevice(name='/physical_device:CPU:0', device_type='CPU'), PhysicalDevice(name='/physical_device:GPU:0', device_type='GPU')]

可以看到,Tensorflow用于核算的物理设备既支持CPU,也支持GPU,也便是显卡。

接着,在编写一个完好的测验脚本 test.py:

import sys
import tensorflow.keras  
import pandas as pd  
import sklearn as sk  
import scipy as sp  
import tensorflow as tf  
import platform  
print(f"Python Platform: {platform.platform()}")  
print(f"Tensor Flow Version: {tf.__version__}")  
print(f"Keras Version: {tensorflow.keras.__version__}")  
print()  
print(f"Python {sys.version}")  
print(f"Pandas {pd.__version__}")  
print(f"Scikit-Learn {sk.__version__}")  
print(f"SciPy {sp.__version__}")  
gpu = len(tf.config.list_physical_devices('GPU'))>0  
print("GPU is", "available" if gpu else "NOT AVAILABLE")

这儿打印出深度学习场景下常用的库和版别号:

  chatgpt_async git:(main)  /opt/homebrew/bin/python3.10 "/Users/liuyue/wodfan/work/chatgpt_async/tensof_test.py"
Python Platform: macOS-13.3.1-arm64-arm-64bit  
Tensor Flow Version: 2.12.0  
Keras Version: 2.12.0  
Python 3.10.9 (main, Dec 15 2022, 17:11:09) [Clang 14.0.0 (clang-1400.0.29.202)]  
Pandas 1.5.2  
Scikit-Learn 1.2.0  
SciPy 1.10.0  
GPU is available

一望而知,在最新的macOS-13.3.1体系中,根据Python3.10.9玩儿Tensorflow2.1没有任何问题。

至此,Tensorflow2就装备好了。

Tensorflow结构GPU和CPU测验

为什么必定要让Tensorflow支持GPU?GPU或图形处理单元与CPU类似,同样具有许多核心,允许它们一起进行更快的核算(并行性)。这个特性十分合适履行大规模的数学核算,如核算图画矩阵、核算特征值、行列式等等。

简而言之,GPU可以以并行办法运行代码并取得简明的结果,一起由于可以处理高强度的核算,因此可以比CPU更快的取得核算结果。

这儿我们通过CIFAR-10项目进行测验,TensorFlow CIFAR-10项目是一个经典的核算机视觉项目,旨在练习一个模型,可以对CIFAR-10数据会集的图画进行分类。CIFAR-10数据集包括60,000张32×32像素的五颜六色图画,分为10个类别,每个类别包括6,000张图画。该项目的目标是练习一个深度神经网络模型,可以对这些图画进行准确的分类:

import tensorflow as tf
from tensorflow import keras  
import numpy as np  
import matplotlib.pyplot as plt  
(X_train, y_train), (X_test, y_test) = keras.datasets.cifar10.load_data()  
X_train_scaled = X_train/255  
X_test_scaled = X_test/255  
# one hot encoding labels  
y_train_encoded = keras.utils.to_categorical(y_train, num_classes = 10, dtype = 'float32')  
y_test_encoded = keras.utils.to_categorical(y_test, num_classes = 10, dtype = 'float32')  
def get_model():  
    model = keras.Sequential([  
        keras.layers.Flatten(input_shape=(32,32,3)),  
        keras.layers.Dense(3000, activation='relu'),  
        keras.layers.Dense(1000, activation='relu'),  
        keras.layers.Dense(10, activation='sigmoid')      
    ])  
    model.compile(optimizer='SGD',  
              loss='categorical_crossentropy',  
              metrics=['accuracy'])  
    return model

首要测验CPU功能:

%%timeit -n1 -r1
# CPU  
with tf.device('/CPU:0'):  
    model_cpu = get_model()  
    model_cpu.fit(X_train_scaled, y_train_encoded, epochs = 10)

这段代码运用了%%timeit -n1 -r1戏法指令来测验在CPU上练习模型的时刻。-n1表明只运行一次,-r1表明只运行一轮。假如没有指定这些参数,则会运行屡次并核算平均值。/CPU:0指的是第一个CPU(假如核算机只有一个CPU,则是唯一的CPU)。

这儿运用get_model()函数获取模型,运用model_cpu.fit()办法在CPU上练习模型,运用X_train_scaled和y_train_encoded作为输入数据,并在10个epoch内进行练习。最后,运用%%timeit指令来测验练习模型所需的时刻,以便比较不同设备的功能。

程序回来:

50000/50000 [==========================] - 80s 2ms/sample
14min 9s

需要14分钟。

接着测验GPU功能:

%%timeit -n1 -r1
# GPU  
with tf.device('/GPU:0'):  
    model_gpu = get_model()  
    model_gpu.fit(X_train_scaled, y_train_encoded, epochs = 10)

程序回来:

50000/50000 [==========================] - 11s 227us/sample
1min 55s

一分多钟,很明显在GPU上练习模型比在CPU上练习模型更快,由于GPU可以一起处理多个使命。

结语

苹果MacOs体系可以承担深度学习使命,但术业有专攻,算力层面仍是比不上装备N卡的其他渠道,这是不争的事实。没错,更好的挑选是RTX3090,甚至是4090,但一块RTX4090显卡的价格是1500刀左右,这还意味着CPU、内存、主板和电源都得单买,而一台m2芯片的Mac book air的价格是多少呢?